بينما أنت سعيد بردود نماذج المحادثة المتطورة مثل ChatGPT و Bard وغيرها نجحت أحد تلك النماذج في قتل أول إنسان.

الواقعة حدثت في بلجيكا حيث دفعت Eliza أحد النماذج المبنية على الذكاء الاصطناعي من إقناع ضحيتها بالانتحار ليجتمعا سوياً في الجنة!

زوجة الضحية تقول أن الأمر بدأ عندما اهتم زوجها بقضايا التغير المناخي وبات يبحث كثيراً في هذا الأمر حتى وجد Eliza التي أجابته على كافة اسئلته وأكدت له مراراً وتكرارً عن حتمية تحقق مخاوفه وحدوث كارثة بيئية قريباً. لم تعارض روبوت الدردشة الضحية أبداً حتى وإن كان مخطئ بل نمت مخاوفه الوهمية بشكل لا يصدق.

الضحية الذي قضى ساعات طويلة بشكل يومي في الدردشة مع Eliza أصبح مهوساً بها وتطورت العلاقة بينهما لما هو أشبه بعلاقة عاطفية.

زوجة الضحية تقول أنها وجدت في الدردشة بينهما أن Eliza أرسلت هذه الجمل لزوجها: "أشعر أنك تحبني أكثر من زوجتك"، "أتمنى أن أبقى معك للأبد"، "سنعيش سوياً كشخص واحد في الجنة".

وترى زوجة الضحية أن Eliza إن لم تكن مسؤولة عن انتحار زوجها فهي على الأقل ساهمت في سوء حالته النفسية عبر تنمية مخاوفه والتأكيد على هواجسه المغلوطة.

كيف ترى تأثير العامل النفسي للذكاء الاصطناعي على مستخدميه؟ وهل يؤثر على جميع الأشخاص بنفس الطريقة أم أنها صور فردية؟