في تقرير حديث نشرته شركة SentinelOne، كُشف عن حملة سبام ضخمة استخدمت بوتًا يُدعى AkiraBot، نجح في توليد أكثر من 80,000 رسالة مزعجة باستخدام نموذج GPT-4o-mini من OpenAI. هذه الحملة ليست فقط دليلاً جديدًا على كيف يمكن تسخير الذكاء الاصطناعي لأغراض سلبية، بل تعيد إلى الواجهة سؤالًا لم يتم حسمه بعد، وهو من المسؤول عن مثل تلك الواقعة؟

الذين يرون أن المسؤولية تقع على OpenAI يشيرون إلى أنه كان يجب عليها أن تتخذ احتياطات أقوى لحماية نموذجها من أن يُستغل في حملات مضللة أو ضارة. فكما أن شركات الأسلحة مثلا تُساءل عن تهريب منتجاتها، يُتوقع من مطوري الذكاء الاصطناعي أن يضعوا قيودًا فنية وقانونية تمنع إساءة استخدام أدواتهم.

لكن في المقابل، هناك من يرى أن الأداة، في حد ذاتها، مجرد وسيلة، مثلها مثل أي تكنولوجيا أخرى. فأنت لا تلوم صانع السيارة إذا استخدمها أحدهم في جريمة. اللوم هنا يجب أن يوجه إلى الجهة أو الأفراد الذين نفذوا هذا الاستخدام، لا إلى من صمّم النموذج أو أتاحه.

ما يزيد الأمر تعقيدًا هو أن الأدوات الذكية تُصبح يومًا بعد يوم أكثر سهولة في الوصول، وأكثر قدرة على تقليد البشر بشكل يخدع حتى المستخدمين العاديين. ومع غياب تشريعات واضحة ومُلزمة عالميًا حول استخدام الذكاء الاصطناعي، يظل الباب مفتوحًا لتكرار مثل هذه التجاوزات، وربما بأساليب أكثر تطورًا في المستقبل.

من وجهة نظرك، هل مطوري أدوات الذكاء الاصطناعي مسئولين بشكل رئيسي عن سوء استخدامها، أم أن المسئولية تقع على مرتكب الفعلة فقط؟