في تطور لافت ظهرت تقارير تتحدث عن توتر بين البنتاغون وشركة Anthropic AI بسبب قيود أخلاقية تضعها الشركة على استخدام تقنياتها. بحسب ما يتم تداوله فإن وزارة الدفاع الأمريكية تضغط باتجاه حرية أكبر في استخدام نماذج الذكاء الاصطناعي مع تهديد بفسخ التعاقدات أو وقف التمويل إذا لم يتم تخفيف هذه القيود.
Anthropic تُعرف بتركيزها القوي على ما تسميه الذكاء الاصطناعي الآمن وتضع سياسات واضحة تمنع استخدام نماذجها في تطبيقات قد تسبب أذى واسع النطاق. في المقابل ترى الجهات العسكرية أن أي قيود مسبقة قد تحد من قدرتها على الاستفادة الكاملة من التقنية خاصة في مجالات التحليل والمراقبة والتخطيط الاستراتيجي.
هذا الخلاف يكشف جانب أعمق من مجرد نزاع تعاقدي. الذكاء الاصطناعي أصبح جزء أساسي من موازين القوة بين الدول ومن الطبيعي أن تسعى الجيوش إلى امتلاك أكبر قدر ممكن من الحرية في استخدامه. لكن في المقابل التخلي الكامل عن الضوابط الأخلاقية يفتح الباب لاستخدامات قد تتجاوز حدود الردع والدفاع.
المشكلة لا تكمن في تطوير الذكاء الاصطناعي عسكريا بحد ذاته بل في غياب الخطوط الحمراء الواضحة. عندما يصبح سباق التفوق التقني أهم من أي اعتبارات أخلاقية يتحول الذكاء الاصطناعي من أداة مساعدة إلى عامل تصعيد. ومع استمرار هذا الاتجاه، يبدو أن ساحات الصراع القادمة لن تحسم فقط بالأسلحة التقليدية بل بالخوارزميات أيضا.
التعليقات