مؤخرا هذا العام استخدمت وحدة من مشاة البحرية الأمريكية الذكاء الاصطناعي التوليدي لتحليل بيانات استخباراتية مفتوحة المصدر خلال تدريباتها، في خطوة وصفت بأنها تمهيد لاستخدام هذه التكنولوجيا مستقبلاً في عمليات التجسس والتحقيقات العسكرية. ولعل هذه التجربة، رغم ما تحمله من دهشة تقنية، تدفعنا للسؤال عن مدى أخلاقية استخدام الذكاء الاصطناعي في الأعمال العسكرية والتجسسية.
شخصيا أعتقد أنه لا يمكن أن يتم منع الدول من استخدام الذكاء الاصطناعي لأغراض عسكرية. لكن هذا لا يعني أن نبارك هذا السباق، بل على العكس، من الضروري أن يكون هناك إجماع دولي لفرض حدود واضحة، لأن ترك هذا الباب مفتوحًا على مصراعيه يعني أننا نغامر بتحويل التقنية التي وُجدت لخدمة الإنسان إلى وحش لا يمكن السيطرة عليه، تماما كما حدث مع الطاقة النووية في السابق.
القلق لا ينبع فقط من فكرة استخدام الذكاء الاصطناعي في الحروب، بل في أن تصبح قرارات الحياة والموت أو التشخيص أو التلاعب بالمعلومات في أيدي خوارزميات تعمل وفق أهداف مبرمجة سلفًا دون اعتبار للأثر الإنساني. في ظل هذا المشهد، يصبح الحديث عن الاستخدامات السلمية للذكاء الاصطناعي في التعليم والطب والتنمية والبيئة مجرد هامش صغير في رواية أكثر سوداوية.
إلى أين يقودنا سباق التسلح بالذكاء الاصطناعي من وجهة نظرك؟ وهل لا بد أن يتوقف قبل أن يصبح من المستحيل احتواؤه؟
التعليقات