في الأيام الماضية أعلنت Anthropic عن تطوير أداة جديدة مرتبطة بالأمن السيبراني مع الإشارة إلى أنها ما زالت في مراحلها الأخيرة. بعد ذلك بفترة قصيرة خرجت OpenAI لتعلن أنها تعمل على شيء مشابه. لكن اللافت في الحالتين لم يكن نوع الأداة بل القرار المرتبط بها، فهذه التقنيات لن تكون متاحة للعامة بل سيتم حصرها في نطاق مؤسسات محددة فقط تختارها الشركة.
السبب هو أن هذه الأدوات قوية لدرجة قد تجعلها خطرا إذا وصلت إلى الأيدي الخطأ خاصة في مجالات مثل الهجمات السيبرانية، وهو تبرير منطقي لكنه يكشف أنه ربما ما يتم تقديمه للمستخدم العادي قد لا يعكس الصورة الكاملة لقدرات الذكاء الاصطناعي.
الفكرة هنا ليست أن الشركات تخفي شيء بشكل مباشر بل أن هناك مستويات مختلفة من القوة والإمكانيات لا يتم طرحها للجميع بنفس الشكل. ما يصل إلى المستخدم اليوم قد يكون نسخة مقيدة بينما توجد نماذج أكثر تقدما يتم استخدامها في سياقات محددة وتحت رقابة أكبر.
هذا التفاوت يخلق تصور مختلف عن الواقع. فبينما يبدو الذكاء الاصطناعي الحالي والمتاح للجميع متقدما ومبهرا قد يكون في الحقيقة مجرد جزء بسيط ضمن مسار أطول بكثير. ومع استمرار هذا النهج قد تتسع الفجوة بين ما هو متاح للعامة وما يتم تطويره خلف الأبواب المغلقة.
التعليقات