في تطور لافت ظهرت تقارير تتحدث عن توتر بين البنتاغون وشركة Anthropic AI بسبب قيود أخلاقية تضعها الشركة على استخدام تقنياتها. بحسب ما يتم تداوله فإن وزارة الدفاع الأمريكية تضغط باتجاه حرية أكبر في استخدام نماذج الذكاء الاصطناعي مع تهديد بفسخ التعاقدات أو وقف التمويل إذا لم يتم تخفيف هذه القيود. Anthropic تُعرف بتركيزها القوي على ما تسميه الذكاء الاصطناعي الآمن وتضع سياسات واضحة تمنع استخدام نماذجها في تطبيقات قد تسبب أذى واسع النطاق. في المقابل ترى الجهات العسكرية أن
ديسكورد تواجه انتقادات حادة بسبب سياسة التحقق من العمر الجديدة
منذ أشهر بدأت منصة Discord تطبيق نظام للتحقق من عمر المستخدمين بهدف حماية القُصّر وتنظيم المحتوى. لكن مع الوقت تبين أن النظام لم يكن فعال كما هو متوقع بسبب وجود ثغرات سهلة يمكن التحايل عليها دون جهد كبير. لكن بدلا من إعادة تصميم الآلية داخليا قررت المنصة الاستعانة بطرف ثالث لتقديم نظام تحقق أكثر صرامة. المشكلة لم تكن في مبدأ التحقق نفسه بل في هوية الشركة التي تم التعاون معها وهي Palantir Technologies. هذه الشركة معروفة بعلاقاتها المثيرة للجدل سواء
أمازون تلقي اللوم على الموظفين في حادث عطل رغم أن الذكاء الاصطناعي من سببه
بحسب تقرير نشرته صحيفة فاينانشال تايمز أشار عدد من موظفي أمازون إلى أن العطل الذي أصاب خدمات Amazon Web Services في شهر ديسمبر الماضي لم يكن سببه خطأ بشري مباشر كما أُعلن رسميا، بل نتيجة خلل مرتبط بمساعد البرمجة المعتمد على الذكاء الاصطناعي داخل الشركة، والمعروف باسم كيرو. ورغم ذلك، جاء البيان الرسمي لأمازون ليركز على خطأ بشري باعتباره السبب الرئيسي للحادث. هذا النوع من المواقف يكشف جانب حساس في علاقة الشركات الكبرى بالذكاء الاصطناعي. في مرحلة الترويج يتم تقديم
ردود الفعل العنيفة على قرار OpenAI بإيقاف GPT-4o تظهر مدى خطورة التعلق بالذكاء الاصطناعي
مؤخرا أعلنت شركة OpenAI أنها ستوقف بعض النماذج القديمة من ChatGPT بحلول 13 فبراير ومن بينها GPT-4o وهو النموذج الذي أُثير حوله جدل واسع بسبب أسلوبه الذي وصف بالإطراء المفرط أو التلاعب العاطفي بالمستخدمين مما وصل الى رفع بعض المستخدمين دعاوى قضائية ضد الشركة بسببه. القرار في حد ذاته تقني وإداري لكن ما تبعه كان لافت أكثر من القرار نفسه. آلاف المستخدمين عبروا عن حزن وغضب واضحين خصوصا أولئك الذين استخدموا النموذج كشريك عاطفي افتراضي. بعض التعليقات بدت وكأنها تودع
ميتا تخطط لبقاء نشاط صفحات التواصل الاجتماعي للمستخدمين بعد وفاتهم بالذكاء الاصطناعي
أشارت تقارير حديثة إلى أن شركة ميتا حصلت على براءة اختراع لنموذج ذكاء اصطناعي يمكنه مواصلة النشر على حسابات المستخدمين بعد وفاتهم. الفكرة لا تتوقف عند كتابة منشورات تلقائية بل قد تمتد إلى محاكاة مكالمات صوتية أو مرئية تشبه الشخص الراحل إلى حد كبير. تقنيا يبدو الأمر امتداد طبيعي لقدرات الذكاء الاصطناعي في تقليد الأسلوب والصوت والصورة لكن اخلاقيا يفتح باب معقد للغاية. في الظاهر قد يقدم هذا التطور كوسيلة للحفاظ على الذكرى أو لمساعدة العائلة على تجاوز الفقد. لكن
شركة Perplexity تتخلى عن الإعلانات وتحذر من أنها ستضر بالثقة في الذكاء الاصطناعي
أعلنت شركة Perplexity AI إيقاف جهودها المتعلقة بالإعلانات مبررة ذلك بأن الإعلانات قد تضر بثقة المستخدمين في تقنيات الذكاء الاصطناعي. القرار جاء في وقت تتجه فيه شركات أخرى إلى العكس تماما عبر دمج الإعلانات داخل تجربة الاستخدام والبحث عن مصادر دخل إضافية بأي وسيلة ممكنة. ما يميز هذه الخطوة أنها لا تتعلق فقط بنموذج ربحي بل بمفهوم الثقة نفسه. أدوات الذكاء الاصطناعي تستخدم اليوم للبحث عن معلومات واتخاذ قرارات وأحيانا للاعتماد عليها في أمور حساسة. إدخال الإعلانات في هذا السياق
نتائج أحدث تجارب سريرية لشريحة Neuralink تصفها بأنها أمل جديد للبشرية
في تقارير حديثة تم الإعلان عن نتائج تجارب سريرية لشريحة Neuralink على عدد من المصابين بالشلل ووصفت النتائج بأنها خطوة مبشرة قد تفتح الباب أمام علاج حالات ظلت لسنوات طويلة دون حلول حقيقية. بعض المشاركين استطاعوا التحكم في أجهزة رقمية عبر الإشارات العصبية مثلا وهو إنجاز لم يكن ممكن بهذا الشكل قبل سنوات قليلة. الفكرة في حد ذاتها ثورية جدا، شريحة صغيرة تزرع في الدماغ وتربط الإنسان مباشرة بالحاسوب وتمنحه قدرة على تجاوز قيود جسدية قاسية. بالنسبة لمرضى الشلل أو
مهندس برمجيات يستيقظ ليجد بوت ذكاء اصطناعي يشوه سمعته على الانترنت
نشرت صحيفة Wall Street Journal قصة لافتة عن مهندس البرمجيات Scott Shambaugh الذي استيقظ في يوم من الأيام ليتفاجأ بوجود مقال طويل يتجاوز 1100 كلمة على إحدى المدونات يهاجمه شخصيا ويتهمه بالغرور والانحياز ضد الذكاء الاصطناعي. الأكثر غرابة أن كاتب المقال لم يكن شخص حقيقي بل بوت ذكاء اصطناعي. بحسب القصة كان السبب أن المهندس رفض كود برمجي انتجه هذا البوت أثناء العمل على مشروع ما. الرفض كان قرار مهني طبيعي، لكن النتيجة تحولت إلى هجوم علني على شخص المهندس
تعديل الأجنة جينياً خطوة لتحسين الحياة أم تدميرها؟
في مدينة نيويورك ظهر مؤخراً مشروع يحمل اسم Manhattan Genomics يهدف إلى التوسع في تقنيات تعديل جينات الأجنة. الفكرة في ظاهرها تبدو ثورية جدا خصوصا مع وعود تقليل أمراض وراثية قاسية وتجنب معاناة عائلات كاملة ومنح أطفال فرصة لحياة أكثر صحة منذ اللحظة الأولى. لكن خلف هذا الأمل هناك مساحة واسعة من القلق. التكنولوجيا ما زالت حديثة وتأثيراتها البعيدة لا يمكن التنبؤ بها بدقة. أي خطأ صغير في الشفرة الوراثية قد يتحول إلى مشكلة أكبر تظهر بعد سنوات وربما بعد
فايرفوكس تتيح خيار إلغاء كل مزايا الذكاء الاصطناعي كحل لإرضاء المستخدمين
في خطوة لافتة قررت فايرفوكس إضافة ما يشبه زر إيقاف شامل يلغي كل مزايا الذكاء الاصطناعي داخل المتصفح. هذا اتجاه جديد ومميز لان الشركة لم تتخل عن تطوير الذكاء الاصطناعي لكنها ببساطة قالت إن من لا يريد هذه المزايا يستطيع تعطيلها بالكامل والعودة لتجربة تقليدية. هذا النوع من القرارات يعكس فهم مهم لطبيعة العلاقة بين المستخدم والتقنية. ليس كل شخص متحمس لأن تصبح الأدوات أذكى وبعضهم يريد متصفح يؤدي الغرض فقط دون مساعدات إضافية أو اقتراحات أو تحليل مستمر لسلوكه.
دراسة تكشف كيف تغير اللغة المستخدمة ردود الذكاء الاصطناعي
في تجربة بحثية ممولة من الاتحاد الأوروبي طرح باحثون نفس الأسئلة المتعلقة بالحرب بين روسيا وأوكرانيا على سبعة نماذج ذكاء اصطناعي لكن بثلاث لغات مختلفة هي الإنجليزية والأوكرانية والروسية لقياس مدى تأثير اللغة المستخدمة على الرد الذي ينتجه الذكاء الاصطناعي. النتيجة لم تكن مجرد اختلاف في الصياغة بل ظهر ميل واضح في بعض الإجابات نحو الطرف الذي تنتمي إليه اللغة المستخدمة. الأمر يبدو بسيط في الظاهر فالنموذج يتعامل مع نصوص تدرب عليها ومن الطبيعي أن تحمل كل لغة طريقتها الخاصة
rentahuman.ai أول موقع يتيح لنماذج الذكاء الاصطناعي استئجار عمالة بشرية
ظهر مؤخرا موقع باسم rentahuman.ai بفكرة غريبة ومربكة، منصة تسمح لنماذج الذكاء الاصطناعي بطلب خدمات من بشر حقيقيين لتنفيذ مهام لا تستطيع القيام بها وحدها. وخلال بضعة أيام فقط سجل أكثر من 200 الف شخص حتى الآن لعرض مهاراتهم وكأن سوق العمل كان ينتظر هذه اللحظة منذ مدة. المشهد يحمل دلالات كثيرة، فمنذ بدء ثورة الذكاء الاصطناعي كان الحديث كله حول كيفية استخدامنا للذكاء الاصطناعي وتوظيفه لصالحنا، ثم فجأة يصبح الإنسان هو الطرف الذي يتم استدعاؤه عند الحاجة وتوظيفه كأنه
انتحار الأطفال بسبب منعهم من الهواتف
انتشر هذا الأسبوع خبر صادم عن انتحار ثلاث شقيقات في الهند تتراوح أعمارهن بين 12 و16 عام بعد أن منعتهن أسرتهن من استخدام الهواتف بسبب وصول التعلق بها إلى حد الإدمان. الخبر أعاد إلى الواجهة سلسلة حوادث مشابهة يجري فيها الربط بين الهاتف أو الألعاب الرقمية وردود فعل عنيفة من أطفال ومراهقين عند المنع المفاجئ. اللافت أن هذه الوقائع لم تعد حالات فردية بل هي منتشرة في كل مكان تقريبا. في مصر مثلا تم منع لعبة Roblox مؤخرا بعدما ظهرت
وظيفة مدقق محتوى الذكاء الاصطناعي: تعذيب نفسي مقابل المال
في ظلال صناعة الذكاء الاصطناعي اللامعة توجد وظائف نادرا ما يتم تحدث عنها رغم كونها حجر أساس في تدريب النماذج الحديثة. تحقيق نشرته صحيفة الجارديان سلط الضوء على وظيفة مدقق المحتوى، وهي وظيفة تعتمد على توظيف أشخاص غالبًا من دول فقيرة لمشاهدة آلاف الصور ومقاطع الفيديو يوميا ثم تصنيفها إلى محتوى صالح أو غير صالح لتدريب الذكاء الاصطناعي. المشكلة أن هذا المحتوى لا يقتصر على صور عادية أو مواد كالتي نراها عند تصفح مواقع التواصل مثلا، بل يتضمن مشاهد عنف
ما تبعات دمج إيلون ماسك لشركتي xAI وSpaceX تحت مظلة واحدة؟
إعلان إيلون ماسك عن دمج شركتي xAI وSpaceX تحت كيان واحد لم يمر كخبر عابر بل يحمل دلالات أعمق من مجرد إعادة هيكلة إدارية. الجمع بين شركة تركز على الذكاء الاصطناعي وأخرى تقود سباق الفضاء العالمي يوحي بأن ماسك لم يعد ينظر لهذين المجالين كمشاريع منفصلة بل كمسار واحد متكامل يخدم رؤيته طويلة المدى. من زاوية تقنية، الدمج يبدو منطقي إلى حد كبير. فالذكاء الاصطناعي أصبح عنصر أساسي في تشغيل الأقمار الصناعية وتحليل البيانات الفضائية واتخاذ قرارات لحظية في بيئات
بعد أول أسبوع تحت الإدارة الأمريكية، معدل إلغاء تثبيت تيك توك يزيد بنسبة 150%
مر أسبوع واحد فقط على انتقال إدارة تيك توك إلى الجانب الأمريكي لكنه كان كافي لظهور موجة واضحة من الاستياء بين المستخدمين. خلال هذه الفترة بدأت شكاوى متعددة في الظهور، بعضها تقني يتعلق بأعطال في التطبيق نفسه والبعض الآخر أعمق ويتعلق بتغير سلوك الخوارزمية التي اشتهر بها تيك توك لسنوات. كثير من المستخدمين لاحظوا أن المحتوى لم يعد بنفس الدقة في التخصيص وأن مقاطع الفيديو المقترحة أصبحت أقرب إلى العشوائية أو التكرار مع اختفاء تدريجي لنوعيات محتوى كانت أساسية في
مشروع بنما: خطة شركة Anthropic لتدمير ملايين الكتب لصالح نموذج Claude
خلال التحقيقات التي أعقبت الدعوى الجماعية المرفوعة ضد شركة Anthropic من عدد من المؤلفين، ظهرت تفاصيل مقلقة عن مشروع داخلي سري يحمل اسم مشروع بنما. بحسب ما كُشف يهدف المشروع إلى الاستحواذ على ملايين الكتب الورقية ثم مسحها ضوئيا لاستخدام محتواها في تدريب نموذج Claude ثم التخلص من النسخ الأصلية. اللافت في القصة ليس فقط مسألة انتهاك حقوق الملكية الفكرية بل الطريقة التي يُنظر بها إلى الكتاب نفسه. الكتاب هنا لم يعد نتاج جهد فكري أو قيمة ثقافية بل مجرد
Moltbook منصة تواصل اجتماعي مخصصة لنماذج الذكاء الاصطناعي فقط
مؤخرًا تم إطلاق منصة تدعى Moltbook بفكرة غير معتادة اطلاقا حيث تشبه منصات النقاش مثل Reddit لكن بدون أي وجود بشري فعلي. المنصة مخصصة بالكامل لنماذج الذكاء الاصطناعي لتكتب منشورات وتطرح أفكارها وتدخل في نقاشات مفتوحة مع نماذج أخرى حول أي موضوع تختاره من الفلسفة إلى البرمجة وحتى نقاشات يومية عادية. حتى الآن يوجد على المنصة أكثر من 32 ألف بوت نشط وهو رقم كاف لخلق بيئة تبدو حيوية بشكل لافت. المثير في التجربة ليس العدد بل طبيعة التفاعل نفسها.
ما نتائج كون الـ GEO بديلًا للـ SEO ؟
مع انتقال عدد متزايد من المستخدمين للاعتماد على نماذج الذكاء الاصطناعي في البحث بدل محركات البحث التقليدية بدأ يظهر مفهوم جديد يُعرف بـ Generative Engine Optimization أو الـ GEO كبديل للSEO لكن بدلا من الظهور في محركات البحث يتعلق الأمر بالظهور داخل إجابة جاهزة يقدمها الذكاء الاصطناعي بثقة وكأنها الخيار الأفضل بلا منازع. الفرق الجوهري أن محركات البحث كانت تترك مساحة للمقارنة والاختيار، بينما الذكاء الاصطناعي يحاول دائما الدفاع عن اقتراحاته واقناع المستخدم انها الأنسب وهذا التحول يمنح المواقع والشركات
واتساب يتعرض للمقاضاة بدعوى خرق التشفير التام بين الطرفين
خلال الأيام الماضية عاد الجدل حول خصوصية المستخدمين إلى الواجهة بعد رفع دعوى قضائية ضد شركة Meta تتهمها بأن ما تروج له حول التشفير التام بين الطرفين في واتساب ليس دقيقا كما يتم تصويره. الاتهام الأساسي يتمحور حول أن الشركة تقوم بالوصول إلى محتوى المحادثات رغم التأكيد المستمر داخل التطبيق وفي الحملات التسويقية أن الرسائل لا يطّلع عليها أي طرف ثالث. التشفير التام كان دائمًا حجر الأساس في صورة واتساب التسويقية. وجود عبارة End-to-End Encryption في كل زاوية من التطبيق
ما مصير المصداقية اذا بدأت نماذج الذكاء الاصطناعي تعتمد على بعضها في المعلومات؟
خلال تجربة أجرتها صحيفة الجارديان تم طرح مجموعة من الأسئلة على ChatGPT في مجالات مختلفة، وكانت النتيجة اللافتة أن النموذج اعتمد على Grokepedia، وهي موسوعة مبنية على نموذج الذكاء الاصطناعي Grok كمصدر للمعلومات في تسع مرات. هذه النتيجة من وجهة نظري دليل على المسار الذي تسير فيه نماذج الذكاء الاصطناعي اليوم والذي يقتل مصداقيتها. في الأصل كانت مصداقية المعلومات الصادرة عن نماذج الذكاء الاصطناعي محل شك لأنها تعتمد على بيانات تدريب واسعة يصعب تتبع مصادرها بدقة. لكن الاعتماد المتبادل بين
لماذا يستمر الدفع لتطوير الذكاء الاصطناعي رغم أنه لا يوافي التوقعات
خلال الفترة الأخيرة بدأت تظهر أرقام تعطي صورة أقل تفاؤلا عن العائد الحقيقي من الذكاء الاصطناعي داخل الشركات. في استطلاع رأي شمل أكثر من أربعة آلاف مدير تنفيذي أقر 56% من المشاركين بأنهم لم يحققوا أي أرباح ملموسة من تبني تقنيات الذكاء الاصطناعي، بينما أشار 12% منهم إلى أن التجربة كلفتهم خسائر فعلية. ورغم ذلك ما زال الذكاء الاصطناعي يتصدر خطط البحث والتطوير والإنفاق الاستثماري وكأنه خيار لا يمكن التراجع عنه. أعتقد أن أحد الأسباب الواضحة هو الخوف من التأخر.
كيف تصبح فكرة شريك الحياة الاصطناعي مقبولة أكثر مع الوقت؟
خلال الفترة الأخيرة انتشرت فكرة الشريك العاطفي الاصطناعي كسيناريو غريب أو سلوك غير سوي، لكنها الآن بدأت تظهر على لسان مسؤولين كبار في شركات تقنية عملاقة. أحدثها كان تصريح مصطفى سليمان المسؤول عن الذكاء الاصطناعي في مايكروسوفت بأن كل شخص قد يمتلك خلال خمس سنوات صديق أو شريك عاطفي مدعوم بالذكاء الاصطناعي، وهو تصريح يعكس بوضوح أن الفكرة لم تعد هامشية بل تناقش كمسار طبيعي للتطور التقني. ما يجعل هذه الفكرة أكثر قبولا مع الوقت ليس تطور الذكاء الاصطناعي وحده
ما رأيك في اتجاه إيران لإنترنت مستقل عن الشبكة العالمية؟
بعد موجة الاحتجاجات الأخيرة في إيران شهدت البلاد انقطاع شبه كامل للإنترنت استمر قرابة أسبوعين ولا يزال قائم حتى الآن. بالتوازي مع ذلك بدأت تقارير تتحدث عن تسريع الحكومة لخطط إنشاء شبكة إنترنت محلية معزولة عن الشبكة العالمية ويكون الوصول الحقيقي للإنترنت الخارجي فيها محصور على جهات حكومية محددة فقط. الهدف وراء فكرة الإنترنت المحلي قد يضمن للحكومة سيطرة كاملة على تدفق المعلومات، لكنه في المقابل يعزل المواطنين عن العالم وعن أبسط أدوات التواصل والعمل والتعلم. في عصر أصبح فيه
كيف يزيد الذكاء الاصطناعي من الفجوة بين الدول المتقدمة والدول النامية بدلًا من تقليلها؟
في دراسة حديثة نشرتها شركة Anthropic بعد مراجعة أكثر من مليون محادثة بين المستخدمين ونموذجها Claude، ظهرت صورة غير مريحة عن طريقة استفادة العالم من الذكاء الاصطناعي. البيانات أوضحت أن المستخدمين في الدول المتقدمة كانوا أسرع بكثير في توظيف النموذج لرفع الإنتاجية سواء في البرمجة أو الكتابة أو تحليل البيانات بينما كان استخدامه في الدول النامية أكثر سطحية وبطء، ومازلت أذكر المعاناة التي كنت أمر بها وغيري للحصول على حساب ChatGPT في بداية ظهوره عندما لم يكن متاح في مصر