في دراسة أجرتها جامعة ستانفورد الأمريكية وجدت أنّ المبرمجين الذين يستعملون أدوات الذكاء الاصطناعي المساعدة مثل Github Copilot يقومون بكتابة أكوادٍ أقلّ أمانًا، شملت هذه الدّراسة 47 فردًا لديهم مستوياتٍ مختلفة من الخبرة في البرمجة، بما في ذلك الطّلاب الجامعيين وطلاب الدّراسات العليا والمتخصّصين في الصّناعة، أظهر باحثوا جامعة نيويورك سابقًا أن مقترحات البرمجة القائمة على الذّكاء الإصطناعي غالبًا ما تثبت أنّها غير آمنة في التّجارب. ووجدوا أن المشاركين الذين إعتمدوا على الذكاء الاصطناعي للمساعدة كانوا أكثر عرضةً لكتابة أكوادٍ غير آمنة. و في هذا الصّدد يحذّر المؤلفون من مغبّة التّهاون في التّعامل مع مساعدي الذكاء الاصطناعي ونبّهوا لضرورة العمل به بحذر لأنهم يمكن أن يضللوا المطوّرين عديمي الخبرة ويخلقوا مواطنَ ضُعفٍ أمنيّة.

بالنسبة لي أرى أنّ ذلك منطقي، فلكلِّ أداة جوانب إيجابية وأخرى سلبية، وهذا ينطبق على الذّكاء الإصطناعي وأدواته كذلك، ففي البرمجة خصوصا يعدّ مساعد الذّكاء الإصطناعي عاملا هامّا في مساعدة الكثير من المبرمجين خاصّة المبتدئين منهم، ويتيح لهم كتابة أكوادٍ أكثر كفاءة وأمانا كذلك، بالإضافة إلى قدرته على إتمام المهام المتعدّدة بسرعة وجعل عملية البرمجة أكثر كفاءةً ونجاعة، لكن من ناحيةٍ أخرى، إذا لم يتم إنشاء وتكوين هذه التقنيات المساعدة بشكل صحيح وإعادة فحص وتحليل اقتراحاته في حل المشاكل البرمجية بشكل دوري، فإنّ إحتمال إدخال نقاط ضعف ومخاطر أمنية جديدة هو أمرٌ محتمل، ومن المهم أن يدرك المطوّرون الذين يستعينون بمساعد الذّكاء الإصطناعي في غالبيّة أكوادهم ما يتمُّ إقتراحه لهم، وأن يملكوا حسّ النّقد والتّحليل لتلك المقترحات، فهي ليست بالضّرورة صحيحة وهذا ما يزيد من إقناعي بأنّ الذّكاء الإصطناعي لا يمكنه بأيّ حالٍ من الأحوال، أن يستبدل المبرمج، في المقابل يمكنه مساعدته في الكثير من المهام المختلفة.

فهذا المساعد قد تمّ تدريبه على نماذج محدّدة وهو جيّد من ناحية تلك البيانات التي تدرّب عليها، وعدم تنظيم تلك البيانات بشكل صحيح قد ينتجُ عنه إقتراحات خاطئة، في الختام يمكنني أن أقول أنّ هذا المساعد يقدّم أداءً جيّدا من ناحية الكفاءة والأمان إن تمّ إستخدامه بشكل صحيح، والعكس إن لم يتم ذلك.

وأنتم هل تستعينون بمساعد الذّكاء الإصطناعي في مجالات عملكم؟ وما هي حجم الأخطار المحتملة؟