حين تسأل دردشات الذكاء الاصناعي سؤالا، فالجواب قد يكون مضحكا، أو مفيدا، أو مختلقا وليس له أساس من الصحة.

تعمل روبوتات الدردشة مثل: Chat-GPT عن طريق توقع الجمل التي تعتقد أنها أفضل ما يطابق سؤالك. وهي تفتقد في ذلك للمنطق، والعقلانية، ومراعاة عدم تواجد متناقضات عقلية.

ما هي هلوسة الذكاء الاصطناعي؟

هذا المصطلح مستخدم في هندسة الحاسوب. يستخدمه المختصون لوصف استجابة واثقة من الذكاء الاصطناعي ليس لها أساس في البيانات التي تدرب عليها النموذج. وتحدث خصوصا حين يواجه سؤالا غير متوقع، أو لا يملك بيانات عنه.

  • مثال على ذلك: حين تسأل عن ملكة مصرية مختلقة اسمها الملكة حتبستن، فيخبرك بوت الذكاء الاصطناعي أنها ملكة عاشت في طيبة، وولدت عام 1507 قبل الميلاد!
  • مثال آخر هو اختلاقه لمراجع غير موجودة بأسماء مؤلفين لا وجود لهم.

يعتبر ChatGPT من بين أفضل النماذج من هذه الناحية؛ حيث قام المطورون بإضافة العديد من الحواجز للتحكم في نوع الردود التي يقدمها. وتساعد بعض هذه الحواجز على منعه من التفوه بخطابات مسيئة، وفي منعه من اتخاذ قفزات منطقية سخيفة أو هلوسة حقائق تاريخية وهمية.

خلل أم خاصية مميزة؟

يجب الأخذ في الاعتبار أن بعض نماذج الذكاء الاصطناعي تم تدريبها بشكل متعمد على توليد مخرجات لا علاقة لها بأي مدخلات من العالم الحقيقي (البيانات). على سبيل المثال، يمكن لمولد النصوص الفني الذكي -مثل DALL-E 2- توليد صور جديدة بشكل إبداعي، يمكن أن نصفها بأنها "هلوسات"؛ حيث أنها لا تستند إلى بيانات من العالم الحقيقي.

وهذا مهم لأن معظم أدوات الذكاء الاصطناعي التي تم بناؤها باستخدام GPT ليست لديهم حواجز صارمة مثل Chat-GPT. هذا يمنحهم المزيد من القوة، والإمكانيات. وفي المقابل، يجعلهم أكثر عرضة للهلوسة - أو على الأقل إخبارك بمعلومات غير دقيقة.

شاركنا بأي إجابات هلوسة ظهرت لك من هذه الأدوات، وما هي الإجراءات الممكن اتخاذها للتقليل من هذه الهلاوس؟ وما آثارها برأيكم؟