خلال الشهور الأخيرة ظهر مشروع باسم Yara AI يهدف لتقديم دعم وعلاج نفسي عبر الذكاء الاصطناعي، وتم تطويره بتعاون بين المبرمج Joe Braidwood وطبيب نفسي متخصص هو Richard Scott. الفكرة بدت جذابة في ظاهرها، خاصة مع ازدياد الحاجة للدعم النفسي وصعوبة الوصول إلى مختصين في كثير من الحالات.
لكن المفاجأة كانت إعلان إيقاف المشروع قبل إطلاقه بأيام قليلة. السبب لم يكن تقني بل أخلاقي بالدرجة الأولى. القائمون على المشروع أدركوا أن التعامل مع حالات نفسية حساسة، مثل الاكتئاب الحاد أو الأفكار الانتحارية لا يحتمل أي هامش خطأ. الاعتماد على ردود آلية في لحظة ضعف قد يكون خطر حقيقي وليس مجرد تجربة تقنية تحتمل النجاح أو الفشل.
الذكاء الاصطناعي قد يبدو متعاطف في صياغة كلماته، لكنه لا يفهم تعقيدات المشاعر الانسانية ولا يتحمل عواقب الردود التي ينتجها. غياب الوعي والحدس وتحمل المسؤولية يجعل ردود الذكاء الاصطناعي عرضة للخطأ بشكل كبير.
إيقاف المشروع أعاد النقاش في نقطة محورية وهي أن ليس كل ما يمكن تطويره تقنيا يجب أن يطلق على ارض الواقع. بعض المجالات خاصة المرتبطة بالصحة النفسية لا تحتمل التجربة ولا فكرة التحسين مع الوقت. أحيانا يكون التراجع خطوة أكثر إنسانية من الاستمرار حتى لو بدا القرار مفرط في الحذر.
التعليقات