تتحدث بعض التقارير عن دعم OpenAI لمقترح قانوني يمنح شركات الذكاء الاصطناعي نوع من الحصانة في حال وقوع أضرار كبيرة بسبب أنظمتها مثل خسائر مالية ضخمة أو حتى كوارث بشرية طالما لم يكن هناك تعمد أو إهمال واضح. المقترح يشمل النماذج التي تتجاوز تكلفة تدريبها 100 مليون دولار وهو ما ينطبق على عدد أغلب الشركات الكبرى في مجال الذكاء الاصطناعي. الفكرة التي يروج بها الفانون هي أنه من الصعب تحميل شركة مسؤولية كاملة عن نظام معقد قد يتصرف بطرق غير
ماذا لو كان الذكاء الاصطناعي المتاح لدينا هو جزء بسيط من قدرته الحقيقية؟
في الأيام الماضية أعلنت Anthropic عن تطوير أداة جديدة مرتبطة بالأمن السيبراني مع الإشارة إلى أنها ما زالت في مراحلها الأخيرة. بعد ذلك بفترة قصيرة خرجت OpenAI لتعلن أنها تعمل على شيء مشابه. لكن اللافت في الحالتين لم يكن نوع الأداة بل القرار المرتبط بها، فهذه التقنيات لن تكون متاحة للعامة بل سيتم حصرها في نطاق مؤسسات محددة فقط تختارها الشركة. السبب هو أن هذه الأدوات قوية لدرجة قد تجعلها خطرا إذا وصلت إلى الأيدي الخطأ خاصة في مجالات مثل
إلى أي مدى قد يصل نفوذ شركات الذكاء الاصطناعي في تشريع القوانين؟
نشرت OpenAI مؤخرا مخطط من 13 صفحة بعنوان “السياسات الصناعية لعصر الذكاء: أفكار لإبقاء الناس في المقام الأول” . الوثيقة لم تكتفي بالحديث عن التقنية بل قدمت مقترحات مباشرة تمس الاقتصاد وسوق العمل مثل فرض ضرائب على الروبوتات وتجربة أسبوع عمل من أربعة أيام كوسيلة للتعامل مع التغيرات التي قد يسببها الذكاء الاصطناعي. هذا النوع من الطرح يعكس تحول واضح في دور هذه الشركات. لم تعد تكتفي بتطوير الأدوات بل بدأت تدخل في مساحة كانت تقليديا من اختصاص الحكومات وصناع
من المسؤول عندما يجامل الذكاء الاصطناعي المستخدم ويعزز قناعاته؟
في دراسة أُجريت داخل MIT تم تحليل طريقة تفاعل نماذج الذكاء الاصطناعي مع المستخدمين خاصة في المواقف التي تميل فيها هذه النماذج إلى التملق أو الموافقة الزائدة. الفكرة لم تكن جديدة لكن النتيجة كانت لافتة حيث أنه حتى عينة المستخدمين التي من المفترض أنهم عقلانيين ومتوازنين طوروا ثقة قوية في أفكار غير صحيحة فقط من خلال تكرار التفاعل مع نظام يوافقه باستمرار. المشكلة هنا ليست في خطأ واحد أو إجابة غير دقيقة بل في نمط كامل من التفاعل. عندما يجد
ماذا لو بدأنا الانترنت مجددا من الصفر؟
في الفترة الأخيرة بدأت تظهر حملات تتحدث عن ظاهرة يطلق عليها الenshittification وهي التدهور التدريجي للخدمات على الإنترنت من خلال تحول منصات وتطبيقات كانت مفيدة ومريحة في البداية مع الوقت إلى مساحات مليئة بالإعلانات المزعجة والمحتوى الضعيف والحسابات الوهمية. هذا الشعور لم يعد فرديا حيث أن كثير من المستخدمين بدأوا يلاحظون أن التجربة التي كانت ممتعة وسهلة أصبحت أكثر تعقيدا وإزعاجا. تطبيقات التواصل لم تعد كما كانت والخدمات اليومية أصبحت مليئة بعوائق صغيرة لكنها متكررة وكأن المستخدم لم يعد له
أدوات التحقق من الكتابة بالذكاء الاصطناعي أصبحت آلات تشهير بدون دليل
في تحقيق نشرته The Wall Street Journal تم تتبع عدد من الحالات التي تعرض فيها كتاب وباحثون لاتهامات باستخدام الذكاء الاصطناعي في أعمالهم. هذه الاتهامات لا تمر مرور الكرام بل تضع صاحبها مباشرة في موضع شك وكأن عمله فقد قيمته أو مصداقيته. المشكلة لا تكمن فقط في الاتهام بل في مصدره. في كثير من الحالات يكون الدليل مجرد نتيجة من أداة يدعي مطوروها قدرتها على كشف النصوص المولدة بالذكاء الاصطناعي. هذه الأدوات تبني سمعتها على وعود بالدقة لكن عند التعمق
ماذا يحدث عندما تعطل أدمغتنا؟
في دراسة تم إجراءها في جامعة بنسلفانيا حاول الباحثون فهم تأثير الاعتماد على الذكاء الاصطناعي في التفكير اليومي، وللقيام بذلك تم تقسيم المشاركين إلى ثلاث مجموعات وأعطوا كل مشارك اختبار ليقوم بحله، مجموعة أجابت بنفسها وأخرى استعانت بالذكاء الاصطناعي وثالثة استعانت أيضا بالذكاء الاصطناعي لكن قام الباحثون بتعديل النموذج سرا ليعطي إجابات خاطئة لنصف الأسئلة. النتيجة كانت لافتة حيث حوالي 80% من المشاركين في المجموعة الأخيرة تقبلوا الإجابات الخاطئة دون تشكيك، بل والأغرب أن مستوى ثقتهم في إجاباتهم كان أعلى
هل يمكن للذكاء الاصطناعي التحايل على تراخيص البرمجيات المفتوحة؟
في الفترة الأخيرة ظهرت أداة جديدة باسم malus.hs تم تطويرها من قبل مهندسين برمجيين وتقدم فكرة غير معتادة. الأداة تستطيع مقابل رسوم بسيطة إعادة إنشاء أي مشروع برمجي مفتوح المصدر (وهو الكود الذي يكون متاح للعامة ليتمكن أي شخص من استخدامه وتعديله بموجب ترخيص محدد) وتوليد ما يصفه موقع الأداة على الإنترنت بأنه كود مميز قانونيا مع ترخيص مناسب للشركات دون الحاجة لإسناد الكود لصاحبه ودون الخضوع لحقوق النسخ الفكرة في ظاهرها تقنية لكنها تحمل أبعاد قانونية وأخلاقية معقدة. البرمجيات
لماذا ما زلنا مهتمين باستكشاف الفضاء؟
أطلقت وكالة ناسا البارحة مهمة Artemis II وهي رحلة استكشافية حول القمر يشارك فيها أربعة رواد فضاء لمدة 10 أيام. الحدث بحد ذاته يحمل طابع تاريخي خاصة أنه يأتي بعد نحو 50 سنة من آخر رحلة بشرية مماثلة. لكن مع الأرقام الضخمة المرتبطة بهذه المهمة والتي تصل إلى 4 مليار دولار لهذه الرحلة فقط تعود نفس الجدالات القديمة بالشك حول جدوى كل هذا الإنفاق. بالنسبة للكثيرين تبدو هذه الرحلات وكأنها لا تقدم نتائج مباشرة تمس حياة الناس اليومية. لا تحل
OpenAI تمول المنظمات التي تطالب بقوانين منظمة لاستخدام الذكاء الاصطناعي في الخفاء
في تقرير نشرته صحيفة San Francisco Standard تم الكشف عن تفاصيل صادمة لبعض المشاركين في حملات الضغط على OpenAI. هذه الحملات كانت تدعو إلى وضع قوانين أكثر صرامة خصوصا فيما يتعلق باستخدام الأطفال للذكاء الاصطناعي. لكن المفاجأة كانت أن جزء كبير من هذا التحرك كان ممول بشكل غير معلن من الشركة نفسها. بحسب ما ورد في التقرير لم تكن OpenAI مجرد طرف ضمن الحملة بل كانت من أكبر الداعمين لها ماليا دون أن تظهر بشكل مباشر في الصورة. هذا الأمر
بعد الإعلان عن إغلاقه، ماذا كان يحتاج الـ Metaverse لينجح على أرض الواقع؟
منذ أيام أعلنت شركة ميتا أنها ستقوم بإغلاق منصة Horizon Worlds اعتبارا من شهر يونيو وهي واحدة من أبرز محاولات تحويل فكرة الـ Metaverse إلى عالم افتراضي كامل يمكن التجول فيه ومقابلة أشخاص وزيارة أماكن والتفاعل معها وكأنها واقع بديل. عند إطلاقها بدت الفكرة وكأنها خطوة ثورية ستغير شكل الإنترنت بالكامل. الحديث وقتها لم يكن فقط عن المنصة بل عن مستقبل جديد للتواصل والعمل وحتى الحياة اليومية. لكن ما حدث لاحقا كان مختلف تماما حيث لم تستطع التجربة أن تصمد
التخلص من الموظفين الذين تجاوزت أعمارهم الأربعين في مجالات التقنية
في الفترة الأخيرة ظهرت دعوى قضائية ضد شركة Meta من أحد الموظفين السابقين يتهم فيها الشركة بأنها تميل إلى فصل الموظفين الذين تجاوزت أعمارهم الأربعين. واللافت أن الشركة لم تعلق على هذه الاتهامات وهو ما أعطى انطباع بأن الموضوع قد لا يكون مجرد حالة فردية وقد يكون فيه شيء من الصحة خاصة أن قضايا مشابهة ظهرت سابقا ضد شركات تقنية ضخمة مثل جوجل في 2019 وHP في 2023. هذا النوع من القضايا يعكس فكرة بدأت تظهر بشكل غير مباشر داخل
بسبب الذكاء الاصطناعي لم يعد هناك مجال للمبتدئين في سوق العمل
أطلقت جوجل مؤخرا أداة Stitch الجديدة، والتي تعمل على ما يسمى بالvibe design حيث يمكن تصميم موقع أو تطبيق كامل فقط من خلال محادثة مع الذكاء الاصطناعي. هذا الاتجاه يشبه ما حدث في الvibe coding حيث أصبحت البرمجة نفسها قابلة للتنفيذ عبر محادثة مع الذكاء الاصطناعي دون الحاجة لأي خبرة. المشكلة لا تكمن في التطور نفسه بل في كونه اعاد تشكيل سوق العمل. فالمهام التي كانت تعتبر مدخل طبيعي للمبتدئين مثل تصميم موقع بسيط أو بناء تطبيق صغير أصبحت الآن
لماذا تعامل الكتابة بالذكاء الاصطناعي كجريمة؟
في تقرير نشرته The New York Times تم تناول قصة دار نشر قررت إلغاء إصدار رواية لكاتبة بعد اتهامها باستخدام الذكاء الاصطناعي في كتابتها. القرار لم يمر مرور الكرام حيث دار الجدل حول كون مجرد الاستعانة بالذكاء الاصطناعي في الكتابة أمر غير مقبول بأي نسبة. اللافت أن هذا التشدد يظهر بوضوح في مجال الكتابة بينما لا يواجه نفس الرفض في مجالات أخرى مثل البرمجة أو التصميم حيث أصبح استخدام الذكاء الاصطناعي شبه طبيعي بل وأحيانا مطلوب. هذا التفاوت يوحي بأن
إذا كانت بياناتنا يتم سرقتها بأي حال فعلى الأقل نأخذ المال مقابلها
في مقال نشرته صفيحة The Guardian تم عرض قصص لأشخاص من دول مختلفة يشاركون بياناتهم الشخصية مقابل المال مع شركات تعمل على تدريب نماذج الذكاء الاصطناعي، وما بين مهام بسيطة مثل تصوير أماكن عامة وأخرى أكثر حساسية مثل مشاركة محادثات خاصة يبدو أن هناك سوق كامل بدأ يتشكل حول بيع البيانات. اللافت في القصة ليست فكرة بيع البيانات بل طريقة التفكير فيها. أحد المشاركين مثلا اختصر الفكرة بشكل مباشر قائلا أنه طالما البيانات تجمع منا وتستخدم في كل الأحوال فلماذا
ChatGPT لم يعد الخيار الأفضل لدى الكثيرين
في تصريحات حديثة أوضحت Fidji Simo الرئيس التنفيذي للتطبيقات في OpenAI أن الشركة بدأت تعيد ترتيب أولوياتها. الفكرة لم تعد التوسع في كل اتجاه ممكن بل التركيز على تحسين المنتجات الحالية وعلى رأسها ChatGPT. هذا التحول لم يأتي من فراغ. فمع صعود منافسين أقوياء مثل Gemini 3 وClaude 4.6 لم يعد ChatGPT بالنسبة للبعض الخيار الأول كما كان في السابق لأن الكل أصبح يبحث عن جودة التجربة والدقة وسرعة التطور. اللافت هنا أن الشركة اختارت التراجع خطوة للخلف بدلا من الاستمرار
كيف يقوم الذكاء الاصطناعي بتدمير قدرة الأجيال الجديدة على التواصل
في قصة نشرتها CNN تم تسليط الضوء على موقف بسيط في ظاهره لكنه يحمل دلالة عميقة على تغير مجتمعي ضخم. القصة عن شاب وفتاة في جامعة Yale خرجا في موعد غرامي بعد تشجيع من أصدقائهما، وبعد يومين أرسل الشاب للفتاة رسالة طويلة يعبر فيها عن مشاعره. الرسالة بدت مثالية أكثر من اللازم لدرجة أن صديقات الفتاة شككن بأنها مكتوبة بالذكاء الاصطناعي. وبعد التحقق اتضح أنها بالفعل مكتوبة باستخدام ChatGPT وهو ما اعترف به الشاب لاحقا للفتاة لأنه لم يعرف كيف
لماذا تسعى كل شركات الذكاء الاصطناعي لجعله يشبه البشر؟
منذ بداية انتشار أدوات الذكاء الاصطناعي كان من الواضح أن الشركات تتسابق لجعل هذه الأنظمة تبدو أكثر بشرية. مع كل إصدار جديد يتم التركيز على تحسين أسلوب الكلام وفهم المشاعر وحتى تقليد طريقة التفكير البشري. ومؤخرا ظهرت تقارير تتحدث عن توجه بعض الشركات للاستعانة بممثلين مسرحيين لتدريب هذه النماذج على التفاعل بشكل أكثر واقعية. لكن ما لا يتم التوقف عنده كثيرا هو سؤال لماذا كل هذا السعي لتقليد البشر؟ ففي النهاية البشر موجودون بالفعل والهدف المفترض من التكنولوجيا كان دائما
الذكاء الاصطناعي يزيد معدل نجاح عمليات الاحتيال الإلكترونية أكثر من أربع أضعاف
في تقرير حديث صادر عن الانتربول تم تسليط الضوء على تطور مقلق في عالم الجرائم الإلكترونية. التقرير أشار إلى أن عمليات الاحتيال التي تعتمد على الذكاء الاصطناعي أصبحت تنجح بمعدل يزيد عن أربع مرات ونصف مقارنة بالأساليب التقليدية سواء كان الهدف سرقة أموال أو الوصول إلى بيانات حساسة. هذا الفارق الكبير هو أمر متوقع تماما فالذكاء الاصطناعي قادر اليوم على تقليد أسلوب الكتابة ومحاكاة الأصوات وصياغة رسائل تبدو واقعية بشكل يصعب تمييزه. النتيجة أن كثير من محاولات الاحتيال لم تعد
سوني تطلق نظام Protective AI لحماية المبدعين وصناع المحتوى
في خطوة مهمة أعلنت شركة Sony عن مشروع جديد يحمل اسم Protective AI يهدف إلى حماية صناع المحتوى والمبدعين من استخدام أعمالهم دون إذن في تدريب أو تشغيل نماذج الذكاء الاصطناعي. الفكرة الأساسية للنظام تقوم على منع أي محاولة لمحاكاة أسلوب أو تقليد محتوى معين ما لم يكن هناك تصريح واضح من صاحبه. هذا التوجه يأتي في وقت يشعر فيه كثير من المبدعين بأن أعمالهم أصبحت مكشوفة أمام أنظمة الذكاء الاصطناعي التي تستطيع تقليد الأساليب والأنماط بسهولة متزايدة. ومع غياب
أمازون تجبر الموظفين على استخدام الذكاء الاصطناعي في العمل على حساب الإنتاجية
في تحقيق نشرته صحيفة الجارديان مؤخرا تحدث عدد من موظفي شركة أمازون عن تغير واضح في طريقة العمل داخل الشركة خلال الفترة الأخيرة. فبحسب ما نقلته الصحيفة أصبح استخدام أدوات الذكاء الاصطناعي شبه إلزامي في كثير من المهام اليومية حتى في الحالات التي لا يضيف فيها هذا الاستخدام فائدة حقيقية للعمل. المفارقة التي أشار إليها بعض الموظفين أن الهدف المعلن من هذه الأدوات هو زيادة الإنتاجية وتسريع الإنجاز لكن الواقع داخل فرق العمل يبدو مختلف أحيانا. فبدلا من توفير الوقت
استهداف مراكز البيانات هو الوسيلة الجديدة للضغط في الحروب
في الماضي كانت الحروب تدور غالبا حول الموارد التقليدية مثل النفط وخطوط الإمداد والممرات البحرية. السيطرة على هذه الموارد كانت تعني امتلاك نفوذ حقيقي على الأرض. لكن مع التحول الرقمي الكبير الذي شهده العالم بدأت تظهر أهداف جديدة ذات طبيعة مختلفة ولعل ابرزها هو مراكز البيانات. مع تصاعد التوترات في المنطقة مؤخرا انتشرت أخبار عن استهداف أو تهديد مراكز بيانات في دول مثل الإمارات والبحرين. هذا الأمر أثار قلق لدى الشركات التي تعتمد على هذه البنية التحتية وعلى رأسها شركات
كيف يمكن للذكاء الاصطناعي زيادة الوظائف وليس العكس؟
غالبًا ما ينظر إلى الذكاء الاصطناعي باعتباره تهديد مباشر لسوق العمل خصوصا مع قدرته المتزايدة على أتمتة الكثير من المهام. لكن في مقابلة حديثة مع وزيرة الموارد البشرية الصينية ظهر طرح مختلف تماما، فرغم التحديات الكبيرة في سوق العمل خاصة مع وجود نحو 12.6 مليون خريج جديد كل عام وعدم توفر وظائف كافية لهم تحدثت عن سياسات تعمل على توظيف الذكاء الاصطناعي نفسه لخلق فرص عمل جديدة بدل الاكتفاء باعتباره أداة للاستبدال. الفكرة هنا لا تقوم على إيقاف التطور التقني
الوثيقة الجماعية لحماية البشر من الذكاء الاصطناعي: خطوة متأخرة ضد جشع الشركات
في الأيام الأخيرة انتشرت حملة واسعة لجمع التوقيعات على وثيقة جماعية تقودها عدة منظمات حقوقية هدفها الضغط على شركات الذكاء الاصطناعي لوضع حدود واضحة لتطوير هذه التقنيات. الهدف الأساسي من الوثيقة هو أن يبقى الإنسان هو المتحكم في الذكاء الاصطناعي وأن لا تتحول سباقات الشركات نحو الربح والتفوق التقني إلى تهديد مباشر للمجتمع. الوثيقة تتضمن عدة مطالب مثل إيقاف السعي نحو تطوير ما يسمى بالذكاء الاصطناعي الخارق ووضع ضوابط أقوى لحماية الأطفال والتأكد من أن أي نظام متقدم يبقى خاضع
المحتوى المنتج بالذكاء الاصطناعي وقت الحروب ظاهرة مقلقة
منذ تطور أدوات الذكاء الاصطناعي وانتشارها أصبح من السهل إنتاج صور ومقاطع فيديو تبدو واقعية إلى حد كبير. المشكلة تظهر بوضوح كلما اندلع صراع أو حرب بين طرفين حيث تنتشر على مواقع التواصل عشرات المقاطع التي تظهر انتصارات عسكرية أو دمار هائل لم يحدث في الواقع. كثير من هذه المواد يكون مصنوع بالكامل بالذكاء الاصطناعي ومع ذلك يتم تداوله وكأنه توثيق حقيقي للأحداث. وقد ظهر ذلك مثلا في الحرب بين روسيا وأوكرانيا وفي اعتداء اسرائيل على غزة وحاليا في الحرب