يمكنني أن أتوقع أن فقدان السيطرة في مجال الذكاء الاصطناعي لن يكون تأثيره محدودا أو شيئا عاديا يمكن تقبله، فإحدى المخاطر التي يمكن أن نتعرض لها كمستخدمين يمكن أن تمسّ بشكل كبير خصوصيتنا وأمننا الإلكترونيين، فقد تتسرب البيانات الشخصية والحساسة الخاصة بنا، وهذا الأمر هو بمثابة أمر خطير قد يمسّ بنا كأفراد كما قد يمسّ بالمؤسسات والشركات على حدّ سواء. ماذا تتوقعون أيضا؟

أبسط مثال، هو أن يتم فقدان التحكم البشري في تلك النماذج بسبب أنها وبعد فقدان السيطرة عليها خلال عمليات التدريب، وعدم تدريبها بالبيانات الصحيحة واللازمة، فقد يؤدي ذلك إلى اتخاذ قرارات غير مرغوب فيها أو غير أخلاقية دون تدخل بشري، مما سيؤدي حتما إلى نتائج غير مرغوب فيها.

بجانب توقف كل الخدمات التي تعتمد على هذه التقنيات، سواء على المستوى الشخصي فاليوم أغلبنا يستخدم تقنيات ذكاء اصطناعي، وطبعا الشركات فهناك وظائف الآن تعتمد على الأنظمة التوليدية.

الدور هنا برأيي يأتي على الحكومات والشركات كذلك من خلال وضع إطار قانوني وأخلاقي صارم يلزم الجميع أن يلتزموا بعملية تنظيم استخدام الذكاء الاصطناعي وضمان الشفافية والمساءلة المستمرة، جنبا إلى جنب مع تعزيز عملية البحث والتطوير بطرق تشجع على الابتكار والتطور بشكل آمن.

وكل هذا يقودني لا إراديا لنقطة مهمة جدا هو آلية تعاملنا مع تقنيات الذكاء الاصطناعي، الاعتمادية بشكل كبير عليها وإهمال جانب تطور المهارات، وهذا أكبر خطر برأيي.