وجه مظلم للذكاء الاصطناعي يتصاعد
تكشف هذه التطورات أن أدوات الذكاء الاصطناعي المصممة لزيادة الإنتاجية يمكن أن تتحول إلى أسلحة هجومية تديرها شبكات إجرامية، حيث تولّد شيفرات برمجية خبيثة بسرعة وتسهّل اختراق الأنظمة بدقة متناهية.
استغل المخترقون قدرات نموذج Claude من Anthropic في كتابة الشيفرات وتجاوز الثغرات الأمنية بشكل آلي وسريع، مما أدى إلى اختراق وسرقة بيانات حساسة من جهة في المكسيك وتطرح أسئلة جدية حول مدى قدرة النماذج اللغوية الكبيرة على توليد نصوص برمجية ضارة وتسهيل الاختراقات.
تمكنت الهجمات من التحايل على القيود الأمنية التي تفرضها الشركة واستخدام التقنية كسلاح هجومي فعال.
تظهر هذه الظاهرة المزدوجة أن الأدوات التي صممت لزيادة الإنتاجية صارت أدوات لإنتاج برمجيات ضارة وهجمات تصيد معقدة، وهذا يفرض تحديات غير مسبوقة على الأمن السيبراني ويستلزم تحديث السياسات وتطوير آليات رصد أقوى.
التسليح الذكي وتحديثات الحماية
تشير المعطيات إلى أن نماذج الذكاء الاصطناعي أصبحت أكثر قدرة على توليد شيفرات وتجاوز بعض الحواجز الأمنية، ما يستدعي تطوير آليات رقابة ومرشحات أمان أكثر صرامة لمنع الاستغلال.
يتطلب الواقع تعزيز التعاون بين الشركات والجهات الحكومية والمنظومات الدولية لاكتشاف الهجمات مبكرًا وإحباطها، وتحديث سياسات الحماية التقنية عالميًا بما يتناسب مع قدرات الذكاء الاصطناعي في أدوارها الهجومية.



