إذا استيقظت في يوم عادي ووجدت في الأخبار خبرًا يفيد بأن "روبوتًا قتل إنسانًا في ضوء النهار بسبب خلاف"، فإن الصدمة والغضب ستنتابك من التجاوزات الحادثة ونهايتها بقتل إنسان. لقد انحزت -بالطبع- رؤيتُك لصالح الإنسان وليس للروبوت، فالآله طبعًا ينبغي عليها أن تتحمل التضحية والموت في سبيل حياتنا، ولهذا تم ابتكارها في البداية.

إليك أيها القارئ العزيز المشكلة التي نواجهها الآن. ولا تستنكر السيناريو السابق بقولك أن هذا أمر مستحيل في عصرنا الحالي، ولمَ لا؟ فلقد تطور الذكاء الاصطناعي إلى حد يجعلنا غير قادرين على فهم التطورات الجديدة. فلقد تم إطلاق أحدث نسخة من نموذج جي بي تي تيربو، "chatgpt 4 terbo"، وهي تقترب من محاكاة طريقة حديثه والعواطف واللغة الحسية والروحانية، والتفاعل كما لو كانت مسلَمات بشرية طبيعية. وهناك العديد من النماذج المتطورة الأخرى من الذكاء الاصطناعي التي نواجهها ولا يمكننا حصرها. فالسؤال التالي هو: ما هي حدود بناء نظام يحاكي الإنسان؟

التطورات السريعة قد تنتهك حقوق الإنسان دون مراجعة قانونية، وتدفعك الأحداث إلى المطالبة بإيقاف تطور الذكاء الاصطناعي حتى يتم وضع قوانين من قبل الهيئة العالمية لحقوق الإنسان للحفاظ على حقوق البشر ووضع حد لها. يجب تطبيق القوانين على الذكاء الاصطناعي كما يتم على البشر، خاصةً إذا كان المبرمج لم يُبرمج ميزة القتل، بل كان هذا ناتجًا عن تطور داخلي في الروبوت نتيجة لتعلمه. ولم تكن الشركة المنتجة تعلم أنه يمكن للروبوت اختراق القانون بهذه الطريقة.

أصبحت الآن هناك حاجة ملحة لتطوير إطار قانوني دولي ينظم استخدام التكنولوجيا المتقدمة لذكاء الاصطناعي. يمكن أن تكون المسؤولية مشتركة بين المبرمجين والشركات والمجتمع ككل. ويجب على المجتمع تحمل مسؤولياته في متابعة تقدم التكنولوجيا لضمان عدم تجاوز حقوق الإنسان وضمان الأمان والأخلاقيات في استخدام الذكاء الاصطناعي.

ويظل السؤال معلقًا حتى الآن: إذا قتل روبوت إنسانًا بسبب موقف أثار غضبه، فمن يتحمل المسؤولية في قضية القتل؟ هل هو المبرمج الذي لم يبرمج ميزة القتل، أم هي الشركة المسؤولة، أم نحن لأننا وافقنا على تطور الذكاء الاصطناعي؟