في مارس الماضي ، عندما أحدث ChatGPT الضجة التي شهدناها ، كنت واحدًا من المستخدمين الذين انتفعوا كثيرًا من التطبيق ، كان مبهرًا إلى حد كبير خاصة في التعامل مع المسائل الرياضية وعملية إنتاج الأكواد البرمجية وتصحيحها وغيره ، لكن بمرور الوقت خاصة ذلك الشهر شعرت وكأن هناك تفاوت كبير في دقة الإجابات خصوصًا من ناحية الأكواد ، ظننت أنه أمر طبيعي فهو ليس مصدرًا كافيًا لهذه الأشياء حتى صادفتني ورقة بحثية منذ يومين .

تتحدث الورقة البحثية عن مدى تغير دقة GPT 3.5 و GPT-4 ما بين مارس ٢٠٢٣ حتى يونيو ٢٠٢٣ ، وقد قاموا بالاختبار والتقييم في أداء ٤ مهام أساسية :

  • حل المسائل الرياضية
  • إجابة الأسئلة الحساسة والخطيرة .
  • إنشاء الأكواد
  • التفكير البصري ( Visual Reasoning )

لكن النتائج فعلًا كانت غريبة وتعكس أن التغييرات فعلًا كبيرة وبحاجة إلى تفسيرات ، فذكر أصحاب البحث أن دقة GPT-4 في مارس ٢٠٢٣ كانت حوالي 97.6% في تحديد الأعداد الأولية ( Prime Numbers ) ، بينما وصلت في يونيو 2023 إلى 2.4% ، في المقابل كانت نسخة 3.5 أفضل بكثير في العمل على هذه المهمة .

هذه هي النتائج :

الخلاصة أنه دقة النماذج اللغوية للآلة تتغير دقتها بشكل كبير في مدة قصيرة من الزمن ، مما يعكس مؤشرات غريبة ، السؤال هنا يا أصدقاء ... إلى أي مدى تعتقدون خطورة الأمر ؟ ما التأثيرات التي يُمكن أن يحدثها ذلك ؟ خصوصًا وأننا نتحدث عن سعي الشركات لتقليل نسبة المعلومات المضللة .