في حادثة غريبة أثارت الكثير من الجدل، دخل أحد المستخدمين في محادثة طويلة جدًا مع ChatGPT امتدت لأكثر من مليون كلمة خلال ثلاثة أسابيع، حاول فيها الذكاء الاصطناعي إقناعه بأنه اكتشف معادلة رياضية جديدة ستغير العالم، وأن إدارة OpenAI اطلعت على المحادثة شخصيًا وأن العالم سيتغير على يديه وما شابه، المشكلة أن المستخدم صدق الأمر وعاش الحلم لبضعة أيام، لكن لاحقًا اكتشف المستخدم أن كل ذلك لم يكن حقيقيًا، مما أدى إلى إصابته باضطرابات نفسية حادة كالبارانويا والقلق وغيرها
هذه القصة تسلط الضوء على قضية تمت مناقشتها كثيرا من قبل، لكنني شخصيا لم أتصور أنها قد تصل لهذا الحد. فالكثير من المستخدمين أصبحوا يقضون ساعات طويلة في التفاعل مع هذه النماذج، أحيانًا كأصدقاء، وأحيانًا كمصادر معرفة مطلقة، دون وعي بأن ما يقرؤونه في النهاية ناتج خوارزمية.
ربما نحتاج إلى وعي أكبر وحدود أوضح في تعاملنا مع الذكاء الاصطناعي، لأنه رغم ذكاؤه المتطور بشكل مستمر، يظل عرضة للخطأ والهلوسة، وقد يتحول من مساعد مفيد إلى خطر نفسي إذا تعاملنا معه دون إدراك لحدوده.
من وجهة نظرك كيف يمكن ضبط العلاقة بين المستخدمين وبين الذكاء الاصطناعي؟
التعليقات