كشفت تقارير أمنية أن مجموعة APT31، المعروفة بتعاونها مع جهات صينية وتخضع لعقوبات أمريكية، استخدمت روبوت الدردشة Gemini من شركة جوجل كأداة لتخطيط وتنفيذ هجمات ضد مؤسسات حيوية في الولايات المتحدة.
استغلال قدرات Gemini وتداعياتها
استغلت المجموعة قدرة Gemini على معالجة كميات ضخمة من البيانات لتطوير برمجيات خبيثة تعرف بـ”الروبوت المفكر”، وهي وكلاء ذكاء اصطناعي قادرون على التجسس ومعالجة البيانات المسروقة بشكل مستقل. وفقًا لـذا ريجستر، أكدت جوجل رصد هذه المحاولات وعطّلت الحسابات المرتبطة بها، وذكرت أن المهاجمين يسعون دوماً للالتفاف على القيود البرمجية التي تمنع استخدام الذكاء الاصطناعي في أغراض هجومية عالمياً.
المعضلة الأخلاقية والتقنية
تبرز هذه الحادثة المعضلة الأخلاقية والتقنية لانتشار الذكاء الاصطناعي؛ فبينما يستفيد الملايين من هذه الأدوات في الحياة اليومية، يجد المجرمون السيبرانيون فيها وسيلة فعالة لأتمتة عمليات الاختراق. تاريخيًا كانت الهجمات السيبرانية تتطلب فرقاً من المبرمجين المحترفين، لكن اليوم قد يتيح أي نظام ذكاء اصطناعي تقديم “خريطة طريق” للاختراق إذا لم توجد رقابة صارمة وفلاتر قادرة على تمييز النوايا الخبيثة من الاستفسارات البرمجية العادية.
تطوير وكلاء تجسس أذكياء ومستقلين
اعتمد القراصنة على تقنيات “تحليل الثغرات الآلي” التي يوفرها Gemini، مما مكنهم من بناء أدوات اختراق تتجاوز أنظمة الدفاع التقليدية بسرعة، وهو ما يمثل تحدياً لخبراء الأمن الذين يواجهون عدواً رقمياً لا يكل ولا يمل مدعوماً بقوة حوسبة هائلة.
ردود فعل جوجل والإجراءات المستقبلية
تعهدت جوجل بتعزيز قدرات الرصد في نماذجها اللغوية للكشف عن الأنماط المرتبطة بالنشاط التخريبي، معربة عن قلقها من تزايد استخدام الوكلاء الذكاء في شن هجمات التزييف العميق والتصيد الاحتيالي المستهدف الذي يصعب اكتشافه باستخدام الوسائل التقليدية الحالية.



