في الفترة الأخيرة ظهرت دعوى قضائية ضد شركة Meta من أحد الموظفين السابقين يتهم فيها الشركة بأنها تميل إلى فصل الموظفين الذين تجاوزت أعمارهم الأربعين. واللافت أن الشركة لم تعلق على هذه الاتهامات وهو ما أعطى انطباع بأن الموضوع قد لا يكون مجرد حالة فردية وقد يكون فيه شيء من الصحة خاصة أن قضايا مشابهة ظهرت سابقا ضد شركات تقنية ضخمة مثل جوجل في 2019 وHP في 2023. هذا النوع من القضايا يعكس فكرة بدأت تظهر بشكل غير مباشر داخل
بسبب الذكاء الاصطناعي لم يعد هناك مجال للمبتدئين في سوق العمل
أطلقت جوجل مؤخرا أداة Stitch الجديدة، والتي تعمل على ما يسمى بالvibe design حيث يمكن تصميم موقع أو تطبيق كامل فقط من خلال محادثة مع الذكاء الاصطناعي. هذا الاتجاه يشبه ما حدث في الvibe coding حيث أصبحت البرمجة نفسها قابلة للتنفيذ عبر محادثة مع الذكاء الاصطناعي دون الحاجة لأي خبرة. المشكلة لا تكمن في التطور نفسه بل في كونه اعاد تشكيل سوق العمل. فالمهام التي كانت تعتبر مدخل طبيعي للمبتدئين مثل تصميم موقع بسيط أو بناء تطبيق صغير أصبحت الآن
لماذا تعامل الكتابة بالذكاء الاصطناعي كجريمة؟
في تقرير نشرته The New York Times تم تناول قصة دار نشر قررت إلغاء إصدار رواية لكاتبة بعد اتهامها باستخدام الذكاء الاصطناعي في كتابتها. القرار لم يمر مرور الكرام حيث دار الجدل حول كون مجرد الاستعانة بالذكاء الاصطناعي في الكتابة أمر غير مقبول بأي نسبة. اللافت أن هذا التشدد يظهر بوضوح في مجال الكتابة بينما لا يواجه نفس الرفض في مجالات أخرى مثل البرمجة أو التصميم حيث أصبح استخدام الذكاء الاصطناعي شبه طبيعي بل وأحيانا مطلوب. هذا التفاوت يوحي بأن
إذا كانت بياناتنا يتم سرقتها بأي حال فعلى الأقل نأخذ المال مقابلها
في مقال نشرته صفيحة The Guardian تم عرض قصص لأشخاص من دول مختلفة يشاركون بياناتهم الشخصية مقابل المال مع شركات تعمل على تدريب نماذج الذكاء الاصطناعي، وما بين مهام بسيطة مثل تصوير أماكن عامة وأخرى أكثر حساسية مثل مشاركة محادثات خاصة يبدو أن هناك سوق كامل بدأ يتشكل حول بيع البيانات. اللافت في القصة ليست فكرة بيع البيانات بل طريقة التفكير فيها. أحد المشاركين مثلا اختصر الفكرة بشكل مباشر قائلا أنه طالما البيانات تجمع منا وتستخدم في كل الأحوال فلماذا
ChatGPT لم يعد الخيار الأفضل لدى الكثيرين
في تصريحات حديثة أوضحت Fidji Simo الرئيس التنفيذي للتطبيقات في OpenAI أن الشركة بدأت تعيد ترتيب أولوياتها. الفكرة لم تعد التوسع في كل اتجاه ممكن بل التركيز على تحسين المنتجات الحالية وعلى رأسها ChatGPT. هذا التحول لم يأتي من فراغ. فمع صعود منافسين أقوياء مثل Gemini 3 وClaude 4.6 لم يعد ChatGPT بالنسبة للبعض الخيار الأول كما كان في السابق لأن الكل أصبح يبحث عن جودة التجربة والدقة وسرعة التطور. اللافت هنا أن الشركة اختارت التراجع خطوة للخلف بدلا من الاستمرار
كيف يقوم الذكاء الاصطناعي بتدمير قدرة الأجيال الجديدة على التواصل
في قصة نشرتها CNN تم تسليط الضوء على موقف بسيط في ظاهره لكنه يحمل دلالة عميقة على تغير مجتمعي ضخم. القصة عن شاب وفتاة في جامعة Yale خرجا في موعد غرامي بعد تشجيع من أصدقائهما، وبعد يومين أرسل الشاب للفتاة رسالة طويلة يعبر فيها عن مشاعره. الرسالة بدت مثالية أكثر من اللازم لدرجة أن صديقات الفتاة شككن بأنها مكتوبة بالذكاء الاصطناعي. وبعد التحقق اتضح أنها بالفعل مكتوبة باستخدام ChatGPT وهو ما اعترف به الشاب لاحقا للفتاة لأنه لم يعرف كيف
لماذا تسعى كل شركات الذكاء الاصطناعي لجعله يشبه البشر؟
منذ بداية انتشار أدوات الذكاء الاصطناعي كان من الواضح أن الشركات تتسابق لجعل هذه الأنظمة تبدو أكثر بشرية. مع كل إصدار جديد يتم التركيز على تحسين أسلوب الكلام وفهم المشاعر وحتى تقليد طريقة التفكير البشري. ومؤخرا ظهرت تقارير تتحدث عن توجه بعض الشركات للاستعانة بممثلين مسرحيين لتدريب هذه النماذج على التفاعل بشكل أكثر واقعية. لكن ما لا يتم التوقف عنده كثيرا هو سؤال لماذا كل هذا السعي لتقليد البشر؟ ففي النهاية البشر موجودون بالفعل والهدف المفترض من التكنولوجيا كان دائما
الذكاء الاصطناعي يزيد معدل نجاح عمليات الاحتيال الإلكترونية أكثر من أربع أضعاف
في تقرير حديث صادر عن الانتربول تم تسليط الضوء على تطور مقلق في عالم الجرائم الإلكترونية. التقرير أشار إلى أن عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي أصبحت تنجح بمعدل يزيد عن أربع مرات ونصف مقارنة بالأساليب التقليدية سواء كان الهدف سرقة أموال أو الوصول إلى بيانات حساسة. هذا الفارق الكبير هو أمر متوقع تماما فالذكاء الاصطناعي قادر اليوم على تقليد أسلوب الكتابة ومحاكاة الأصوات وصياغة رسائل تبدو واقعية بشكل يصعب تمييزه. النتيجة أن كثير من محاولات الاحتيال لم تعد
سوني تطلق نظام Protective AI لحماية المبدعين وصناع المحتوى
في خطوة مهمة أعلنت شركة Sony عن مشروع جديد يحمل اسم Protective AI يهدف إلى حماية صناع المحتوى والمبدعين من استخدام أعمالهم دون إذن في تدريب أو تشغيل نماذج الذكاء الاصطناعي. الفكرة الأساسية للنظام تقوم على منع أي محاولة لمحاكاة أسلوب أو تقليد محتوى معين ما لم يكن هناك تصريح واضح من صاحبه. هذا التوجه يأتي في وقت يشعر فيه كثير من المبدعين بأن أعمالهم أصبحت مكشوفة أمام أنظمة الذكاء الاصطناعي التي تستطيع تقليد الأساليب والأنماط بسهولة متزايدة. ومع غياب
أمازون تجبر الموظفين على استخدام الذكاء الاصطناعي في العمل على حساب الإنتاجية
في تحقيق نشرته صحيفة الجارديان مؤخرا تحدث عدد من موظفي شركة أمازون عن تغير واضح في طريقة العمل داخل الشركة خلال الفترة الأخيرة. فبحسب ما نقلته الصحيفة أصبح استخدام أدوات الذكاء الاصطناعي شبه إلزامي في كثير من المهام اليومية حتى في الحالات التي لا يضيف فيها هذا الاستخدام فائدة حقيقية للعمل. المفارقة التي أشار إليها بعض الموظفين أن الهدف المعلن من هذه الأدوات هو زيادة الإنتاجية وتسريع الإنجاز لكن الواقع داخل فرق العمل يبدو مختلف أحيانا. فبدلا من توفير الوقت
استهداف مراكز البيانات هو الوسيلة الجديدة للضغط في الحروب
في الماضي كانت الحروب تدور غالبا حول الموارد التقليدية مثل النفط وخطوط الإمداد والممرات البحرية. السيطرة على هذه الموارد كانت تعني امتلاك نفوذ حقيقي على الأرض. لكن مع التحول الرقمي الكبير الذي شهده العالم بدأت تظهر أهداف جديدة ذات طبيعة مختلفة ولعل ابرزها هو مراكز البيانات. مع تصاعد التوترات في المنطقة مؤخرا انتشرت أخبار عن استهداف أو تهديد مراكز بيانات في دول مثل الإمارات والبحرين. هذا الأمر أثار قلق لدى الشركات التي تعتمد على هذه البنية التحتية وعلى رأسها شركات
كيف يمكن للذكاء الاصطناعي زيادة الوظائف وليس العكس؟
غالبًا ما ينظر إلى الذكاء الاصطناعي باعتباره تهديد مباشر لسوق العمل خصوصا مع قدرته المتزايدة على أتمتة الكثير من المهام. لكن في مقابلة حديثة مع وزيرة الموارد البشرية الصينية ظهر طرح مختلف تماما، فرغم التحديات الكبيرة في سوق العمل خاصة مع وجود نحو 12.6 مليون خريج جديد كل عام وعدم توفر وظائف كافية لهم تحدثت عن سياسات تعمل على توظيف الذكاء الاصطناعي نفسه لخلق فرص عمل جديدة بدل الاكتفاء باعتباره أداة للاستبدال. الفكرة هنا لا تقوم على إيقاف التطور التقني
الوثيقة الجماعية لحماية البشر من الذكاء الاصطناعي: خطوة متأخرة ضد جشع الشركات
في الأيام الأخيرة انتشرت حملة واسعة لجمع التوقيعات على وثيقة جماعية تقودها عدة منظمات حقوقية هدفها الضغط على شركات الذكاء الاصطناعي لوضع حدود واضحة لتطوير هذه التقنيات. الهدف الأساسي من الوثيقة هو أن يبقى الإنسان هو المتحكم في الذكاء الاصطناعي وأن لا تتحول سباقات الشركات نحو الربح والتفوق التقني إلى تهديد مباشر للمجتمع. الوثيقة تتضمن عدة مطالب مثل إيقاف السعي نحو تطوير ما يسمى بالذكاء الاصطناعي الخارق ووضع ضوابط أقوى لحماية الأطفال والتأكد من أن أي نظام متقدم يبقى خاضع
المحتوى المنتج بالذكاء الاصطناعي وقت الحروب ظاهرة مقلقة
منذ تطور أدوات الذكاء الاصطناعي وانتشارها أصبح من السهل إنتاج صور ومقاطع فيديو تبدو واقعية إلى حد كبير. المشكلة تظهر بوضوح كلما اندلع صراع أو حرب بين طرفين حيث تنتشر على مواقع التواصل عشرات المقاطع التي تظهر انتصارات عسكرية أو دمار هائل لم يحدث في الواقع. كثير من هذه المواد يكون مصنوع بالكامل بالذكاء الاصطناعي ومع ذلك يتم تداوله وكأنه توثيق حقيقي للأحداث. وقد ظهر ذلك مثلا في الحرب بين روسيا وأوكرانيا وفي اعتداء اسرائيل على غزة وحاليا في الحرب
بعد بيع 7 مليون نسخة: كيف تخلق نظارات Meta Ray-Ban جوًا من عدم الارتياح في المجتمع
خلال العام الماضي ارتفعت مبيعات نظارات Meta Ray-Ban لتتجاوز سبعة ملايين نسخة وهو رقم يعكس نجاح تجاري واضح. لكن مع هذا الانتشار الواسع بدأت تظهر ملاحظة مختلفة تماما لا تتعلق بأداء النظارات أو تصميمها، بل بشعور متزايد بعدم الارتياح لدى كثير من الناس في الأماكن العامة. المشكلة هي أن هذه النظارات قادرة على التصوير وتسجيل الفيديو بسهولة شديدة وغالبا دون أن يلاحظ من حول المستخدم ذلك. عندما كانت هذه النظارات نادرة لم يكن الأمر لافت أما الآن فأصبح من الطبيعي
الذكاء الاصطناعي لتحسين خدمة العملاء، أو لتحويل الموظفين لروبوتات بشرية
أعلنت سلسلة مطاعم Burger King مؤخرا عن تجربة تقنية جديدة تعتمد على الذكاء الاصطناعي داخل فروعها. الفكرة تقوم على تزويد الموظفين الذين يتعاملون مع الزبائن بسماعات تحتوي على نظام ذكاء اصطناعي يستمع إلى المحادثة الجارية بينهم وبين العميل ثم يرسل للموظف تنبيهات أو اقتراحات فورية حول ما يجب قوله أو فعله لتحسين تجربة الزبون. قد يذكر النظام الموظف مثلا بالاعتذار عند حدوث خطأ أو شكر الزبون على زيارته للمطعم أو اقتراح عبارات أكثر لطفا أثناء الحديث. من الناحية النظرية يبدو
حملة مقاطعة ChatGPT: ما أثر احترام الخصوصية على أداء شركات الذكاء الاصطناعي؟
شهدت الأيام الأخيرة جدل واسع بعد إعلان شركة OpenAI عن صفقة تعاون مع وزارة الدفاع الأمريكية وهو قرار لم يمر بهدوء كما يبدو. فبعد انتشار الخبر بدأت حملة مقاطعة بين بعض المستخدمين اعتراضا على استخدام تقنيات الذكاء الاصطناعي في سياقات عسكرية أو حكومية حساسة. الأرقام التي تلت ذلك كانت لافتة حيث أشارت تقارير إلى ارتفاع معدل إلغاء تثبيت تطبيق ChatGPT بنسبة وصلت إلى 295% خلال فترة قصيرة. في المقابل ظهر مثال آخر في الاتجاه المعاكس وهو شركة Anthropic التي رفض
Euria: نموذج ذكاء اصطناعي بدون خرق للخصوصية أو تدمير للبيئة
في وقت تتسابق فيه شركات الذكاء الاصطناعي على إعلان نماذج أسرع وأقوى اختارت شركة Infomaniak السويسرية مسار مختلف تماما عند إطلاق نموذجها الجديد Euria. اللافت أن الحديث لم يكن عن أداء خارق أو قدرات غير مسبوقة بل عن شيء آخر تماما وهو الخصوصية والبيئة. الشركة أوضحت أن النموذج يعتمد بالكامل على الطاقة المتجددة وأن الحرارة الناتجة عن مراكز البيانات لا تهدر بل تستخدم لتدفئة المنازل. في عالم تتهم فيه تقنيات الذكاء الاصطناعي باستهلاك ضخم للطاقة وتأثير بيئي متزايد يبدو هذا
كيف يبدو مستقبل إدارة الشركات مع المدراء الافتراضيين؟
بدأت بعض الشركات في تجربة أفكار كانت قبل سنوات قليلة تعتبر خيال علمي، ومن بينها ما قامت به أوبر عبر تطوير بوت ذكاء اصطناعي يحاكي أسلوب مديرها التنفيذي Dara Khosrowshahi تحت اسم Dara AI. الفكرة تقوم على أن يتواصل الموظفون أولا مع النسخة الافتراضية للحصول على رأي مبدئي أو توجيه أولي قبل تصعيد الأمر إلى المدير الفعلي. من ناحية عملية قد يبدو الأمر منطقي، فالمدير التنفيذي في الشركات الكبرى لا يستطيع متابعة كل التفاصيل اليومية ووجود طبقة وسيطة ذكية قادرة
صراع بين البنتاغون وAnthropic AI على أخلاقيات استخدام الذكاء الاصطناعي
في تطور لافت ظهرت تقارير تتحدث عن توتر بين البنتاغون وشركة Anthropic AI بسبب قيود أخلاقية تضعها الشركة على استخدام تقنياتها. بحسب ما يتم تداوله فإن وزارة الدفاع الأمريكية تضغط باتجاه حرية أكبر في استخدام نماذج الذكاء الاصطناعي مع تهديد بفسخ التعاقدات أو وقف التمويل إذا لم يتم تخفيف هذه القيود. Anthropic تُعرف بتركيزها القوي على ما تسميه الذكاء الاصطناعي الآمن وتضع سياسات واضحة تمنع استخدام نماذجها في تطبيقات قد تسبب أذى واسع النطاق. في المقابل ترى الجهات العسكرية أن
ديسكورد تواجه انتقادات حادة بسبب سياسة التحقق من العمر الجديدة
منذ أشهر بدأت منصة Discord تطبيق نظام للتحقق من عمر المستخدمين بهدف حماية القُصّر وتنظيم المحتوى. لكن مع الوقت تبين أن النظام لم يكن فعال كما هو متوقع بسبب وجود ثغرات سهلة يمكن التحايل عليها دون جهد كبير. لكن بدلا من إعادة تصميم الآلية داخليا قررت المنصة الاستعانة بطرف ثالث لتقديم نظام تحقق أكثر صرامة. المشكلة لم تكن في مبدأ التحقق نفسه بل في هوية الشركة التي تم التعاون معها وهي Palantir Technologies. هذه الشركة معروفة بعلاقاتها المثيرة للجدل سواء
أمازون تلقي اللوم على الموظفين في حادث عطل رغم أن الذكاء الاصطناعي من سببه
بحسب تقرير نشرته صحيفة فاينانشال تايمز أشار عدد من موظفي أمازون إلى أن العطل الذي أصاب خدمات Amazon Web Services في شهر ديسمبر الماضي لم يكن سببه خطأ بشري مباشر كما أُعلن رسميا، بل نتيجة خلل مرتبط بمساعد البرمجة المعتمد على الذكاء الاصطناعي داخل الشركة، والمعروف باسم كيرو. ورغم ذلك، جاء البيان الرسمي لأمازون ليركز على خطأ بشري باعتباره السبب الرئيسي للحادث. هذا النوع من المواقف يكشف جانب حساس في علاقة الشركات الكبرى بالذكاء الاصطناعي. في مرحلة الترويج يتم تقديم
ردود الفعل العنيفة على قرار OpenAI بإيقاف GPT-4o تظهر مدى خطورة التعلق بالذكاء الاصطناعي
مؤخرا أعلنت شركة OpenAI أنها ستوقف بعض النماذج القديمة من ChatGPT بحلول 13 فبراير ومن بينها GPT-4o وهو النموذج الذي أُثير حوله جدل واسع بسبب أسلوبه الذي وصف بالإطراء المفرط أو التلاعب العاطفي بالمستخدمين مما وصل الى رفع بعض المستخدمين دعاوى قضائية ضد الشركة بسببه. القرار في حد ذاته تقني وإداري لكن ما تبعه كان لافت أكثر من القرار نفسه. آلاف المستخدمين عبروا عن حزن وغضب واضحين خصوصا أولئك الذين استخدموا النموذج كشريك عاطفي افتراضي. بعض التعليقات بدت وكأنها تودع
ميتا تخطط لبقاء نشاط صفحات التواصل الاجتماعي للمستخدمين بعد وفاتهم بالذكاء الاصطناعي
أشارت تقارير حديثة إلى أن شركة ميتا حصلت على براءة اختراع لنموذج ذكاء اصطناعي يمكنه مواصلة النشر على حسابات المستخدمين بعد وفاتهم. الفكرة لا تتوقف عند كتابة منشورات تلقائية بل قد تمتد إلى محاكاة مكالمات صوتية أو مرئية تشبه الشخص الراحل إلى حد كبير. تقنيا يبدو الأمر امتداد طبيعي لقدرات الذكاء الاصطناعي في تقليد الأسلوب والصوت والصورة لكن اخلاقيا يفتح باب معقد للغاية. في الظاهر قد يقدم هذا التطور كوسيلة للحفاظ على الذكرى أو لمساعدة العائلة على تجاوز الفقد. لكن
شركة Perplexity تتخلى عن الإعلانات وتحذر من أنها ستضر بالثقة في الذكاء الاصطناعي
أعلنت شركة Perplexity AI إيقاف جهودها المتعلقة بالإعلانات مبررة ذلك بأن الإعلانات قد تضر بثقة المستخدمين في تقنيات الذكاء الاصطناعي. القرار جاء في وقت تتجه فيه شركات أخرى إلى العكس تماما عبر دمج الإعلانات داخل تجربة الاستخدام والبحث عن مصادر دخل إضافية بأي وسيلة ممكنة. ما يميز هذه الخطوة أنها لا تتعلق فقط بنموذج ربحي بل بمفهوم الثقة نفسه. أدوات الذكاء الاصطناعي تستخدم اليوم للبحث عن معلومات واتخاذ قرارات وأحيانا للاعتماد عليها في أمور حساسة. إدخال الإعلانات في هذا السياق