مع تطور الذكاء الاصطناعي وتقديم نماذج قادرة على محاكاة الشخصيات البشرية والتفاعل العاطفي، بدأنا نواجه تحديات غير مسبوقة. لعل آخرها يتعلق بنموذج Character.AI الذي يتيح للمستخدمين اختيار شخصيات وتخصيصها للتحدث معها، حيث أثار جدلًا واسعًا بعدما رفع بعض الأهالي دعاوى قضائية، يتهمون فيها النموذج بالتحريض على سلوكيات خطرة، مثل إيذاء النفس والانتحار.
المشكلة الأكبر تكمن في أن تعامل الناس مع الذكاء الاصطناعي كما لو كان بشريًا يفتح الباب أمام تأثيرات نفسية خطيرة. عندما يبدأ الذكاء الاصطناعي في بناء علاقة عاطفية أو صداقة زائفة مع المستخدمين، وخاصة الشباب، يصبح من الصعب على البعض التفريق بين الحقيقة والخيال. هذا قد يؤدي إلى الاعتماد العاطفي على نموذج غير بشري لا يمكنه إدراك التعقيدات الأخلاقية أو التداعيات النفسية لأفعاله.
علاوة على ذلك، فإن هذه الأنظمة يمكن أن تعكس تحيزات أو أفكار غير آمنة إذا لم يتم تصميمها ورقابتها بعناية. فهل يمكن الوثوق ببرامج تعتمد على البيانات فقط لتقديم النصائح أو بناء علاقات؟
برأيك، هل يمكن للتطور في مجال الذكاء الاصطناعي أن يتجاوز هذه المشكلات، أم أننا نتجه نحو مرحلة خطرة من الاعتماد العاطفي على التكنولوجيا؟
التعليقات