مؤخرا أعلنت شركة OpenAI أنها ستوقف بعض النماذج القديمة من ChatGPT بحلول 13 فبراير ومن بينها GPT-4o وهو النموذج الذي أُثير حوله جدل واسع بسبب أسلوبه الذي وصف بالإطراء المفرط أو التلاعب العاطفي بالمستخدمين مما وصل الى رفع بعض المستخدمين دعاوى قضائية ضد الشركة بسببه. القرار في حد ذاته تقني وإداري لكن ما تبعه كان لافت أكثر من القرار نفسه.
آلاف المستخدمين عبروا عن حزن وغضب واضحين خصوصا أولئك الذين استخدموا النموذج كشريك عاطفي افتراضي. بعض التعليقات بدت وكأنها تودع شخص حقيقي على فراش الموت لا مجرد نظام برمجي سيتم استبداله بنموذج أحدث. هذا النوع من التفاعل يكشف حجم الارتباط الذي يمكن أن يتكون مع كيان غير بشري لكنه حاضر دائما ومتجاوب بلا ملل.
شخصيا أرى أن ما حدث يبدو مؤشر مقلق جدا. عندما يتحول تحديث تقني إلى صدمة عاطفية جماعية فهذا يعني أن العلاقة مع الأداة تجاوزت حدود الاستخدام الطبيعي. المشكلة لا تكمن في الاستفادة من الذكاء الاصطناعي بل في أن يصبح بديل عاطفي يصعب التخلي عنه بمجرد قرار من شركة.
إيقاف نموذج ذكاء اصطناعي لا يفترض أن يترك أثر نفسي عميق على المستخدمين لكن الواقع أظهر عكس ذلك. ومع تطور هذه النماذج وزيادة قدرتها على محاكاة التعاطف البشري قد يصبح الفصل بينها وبين المشاعر الحقيقية أكثر صعوبة.
التعليقات