في الأيام الأخيرة انتشرت حملة واسعة لجمع التوقيعات على وثيقة جماعية تقودها عدة منظمات حقوقية هدفها الضغط على شركات الذكاء الاصطناعي لوضع حدود واضحة لتطوير هذه التقنيات. الهدف الأساسي من الوثيقة هو أن يبقى الإنسان هو المتحكم في الذكاء الاصطناعي وأن لا تتحول سباقات الشركات نحو الربح والتفوق التقني إلى تهديد مباشر للمجتمع.

الوثيقة تتضمن عدة مطالب مثل إيقاف السعي نحو تطوير ما يسمى بالذكاء الاصطناعي الخارق ووضع ضوابط أقوى لحماية الأطفال والتأكد من أن أي نظام متقدم يبقى خاضع لإشراف بشري حقيقي. هذه المطالب تبدو منطقية في ظاهرها خصوصا مع تسارع تطوير النماذج الذكية وازدياد تأثيرها في مجالات العمل والتعليم والإعلام.

لكن المشكلة أن هذه الخطوة تأتي في وقت متأخر نسبيا. الشركات الكبرى استثمرت مليارات الدولارات بالفعل وبنت نماذج ضخمة أصبحت جزء من السوق العالمي. في مثل هذا السياق يصبح من الصعب إقناع شركات تسابق الزمن والأرباح بأن تبطئ خطواتها طوعا.

لكن بالرغم من ذلك فوجود مثل هذه المبادرات يكشف شيء مهم وهو أن القلق لم يعد محصور في النقاشات الأكاديمية أو التقنية بل بدأ يصل إلى المجتمع المدني والمنظمات الحقوقية. هذا التحول قد لا يوقف سباق الذكاء الاصطناعي فورا لكنه يضع على الأقل فكرة المساءلة على الطاولة.