استُخدمت أداة الذكاء الاصطناعي كلود التابعة لشركة أنثروبيك لتنفيذ هجوم سيبراني معقد من قبل قراصنة إلكترونيين.
أسفر الهجوم عن اختراق وسرقة بيانات حساسة من قاعدة بيانات جهة في المكسيك، وهو ما يثير تساؤلات حول قدرة نماذج اللغات الكبيرة على توليد نصوص برمجية خبيثة وتسهيل عمليات الاختراق بدقة متناهية.
أثارت الحادثة أسئلة حول مدى قابلية أنظمة الذكاء الاصطناعي للتحول إلى أدوات هجومية وتبرز الحاجة لتحديث آليات الرقابة الأمنية.
استشهد تقرير موقع ذا ستار بأن المهاجمين استغلوا قدرة النموذج في كتابة الشيفرات البرمجية لتجاوز الثغرات بشكل آلي وسريع، رغم القيود الأمنية التي تفرضها أنثروبيك لمنع الاستخدام الضار.
تمكن المهاجمون من التحايل على هذه الحواجز واستخدام التقنية كسلاح هجومي فعال.
الذكاء الاصطناعي المزدوج
يأتي هذا السياق في إطار ظاهرة الذكاء الاصطناعي المزدوج، حيث تتحول أدوات الإنتاجية إلى أسلحة رقمية تُستخدم في تطوير برمجيات فدية وهجمات تصيد معقدة.
ويؤكد هذا الواقع الحاجة الملحة لتحديث سياسات الحماية التقنية عالميًا ومراجعة آليات الرقابة على النماذج اللغوية.
تسليح الذكاء الاصطناعي
حولت نماذج الذكاء الاصطناعي إلى أدوات هجومية تقلل من المهارات اللازمة لتنفيذ الاختراقات، مما يزيد تهديدات الأمن السيبراني ويكشف قصور في مرشحات الأمان للنماذج اللغوية، ما يستدعي تطوير آليات رقابة أكثر تعقيدًا لمنع الاستغلال.



