اختطفوها باستخدام الذكاء الاصطناعي! حسنًا ، ليس بالضبط.

المحتالون يتطورون مع تطور التقنيات، من ايام الهاتف الأرضي إلى ايميلات السبام والصفحات المزورة، الآن هم يستغلون الذكاء الاصطناعي لجعل مخططاتهم أكثر إقناعًا ورعبًا. وهذا ما حدث لجينيفر ديستيفانو من أيزونا ، التي كادت تقع ضحية لمقلب مرعب اوهمها أنّ ابنتها تعرّضت للاختطاف وذلك باستخدام تقنية الصوت المولدة بالذكاء الاصطناعي.

جاء الاتصال من رقم مجهول، وكان الصوت في الطرف الآخر يبدو تمامًا مثل ابنتها ذات الـ15 عامًا، وهي تبكي وتتوسل للمساعدة. تلا صوت الذكاء الاصطناعي صوت رجل يدعي أنه اختطفها ويطالب بفدية. في البداية ، طلب المحتال مليون دولار، ثم خفض المبلغ إلى 50 ألف دولار.

بعد الاتصال بزوجها في مشهد مرعب، أتصل الاخير بابنته وأكد سلامتها، ونجت العائلة من التعرّض لعملية احتيال ودفع مبالغ طائلة لهم.

تجربة مروّعة صحيح؟

تسلط هذه التجربة الضوء على الجانب المظلم للذكاء الاصطناعي والمخاطر المتزايدة لاستخدام تقنية استنساخ الصوت لأغراض خبيثة. بينا يمكن استخدام الأصوات المولدة بالذكاء الاصطناعي لأغراض قانونية سليمة، مثل التعليقات الصوتية والدبلجة بلغات أجنبية وحتى إعادة إنشاء أصوات رمزية للأفلام والتلفزيون، فقد فتحت زيادة إمكانية الوصول إلى التقنية وسهولة استخدامها الباب أمام المحتالين والمجرمين.

حتّى أنا بحساب مجاني أستطيع تقليد أصوات الكثير من الأشخاص، وببضع دولارات أستطيع تقليد أصوات أناس في محيطي!

صرّح مكتبالتحقيقات الفيدرالي في فينيكس للعائلة أن الاحتيالات بواسطة صوت الذكاء الاصطناعي تزداد شيوعًا ، وتحدث يوميًا. وهو ينصح الناس بإبقاء ملفاتهم الشخصية على وسائل التواصل الاجتماعي خاصة لتقليل خطر التعرض لمثل هذه الاحتيالات.

شركات مثل ElevenLabs ، وهي شركة ناشئة في مجال الذكاء الاصطناعي توفّر خاصية صوت مثل هذه ، تدرك المخاطر المرتبطة باستخدام تقنيتها بشكل خاطئ. وردًا على ذلك ، قاموا بتطبيق ميزات لسهولة التعرّف على الصوت أنّه مولد بالذكاء الاصطناعي، وأدخلوا حوائط الدفع لتقييد إمكانية الوصول، لكنّه لا يكفي، نحن أمام مستقبل مخيف!

امكانيات جديدة للذكاء الاصطناعي، لكنّها تأتي أيضًا مع مخاطر كبيرة. مع استمرار تقدم التكنولوجيا وسهولة الوصول ، سيتوجب علينا قريبا ايجاد طرق للتكيف والدفاع عن أنفسنا ضد الجانب المظلم للتقنيات!