حذّر هينتون، الأب الروحي للذكاء الاصطناعي، من أن التوجّه العسكري نحو الذكاء الاصطناعي قد يُسهّل بدء الحروب بدلاً من أن يجعلها أكثر أمانًا.
أوضح أن الأسلحة الفتاكة ذاتية التشغيل، أي الأنظمة التي تقرر بنفسها من تقتل أو تشوّه، تُعد من أخطر تطبيقات تكنولوجيا الذكاء الاصطناعي، وبيّن أنها “تمثل ميزة كبيرة إذا أرادت دولة غنية غزو دولة فقيرة”.
شرح أن الخطر في نشر الذكاء الاصطناعي المتقدم في ساحات القتال يكمن في خفض التكلفة البشرية والسياسية للصراع، وقال: “ما يمنع الدول الغنية من غزو الدول الفقيرة هو عودة مواطنيها جثث”، مضيفًا: “إذا كانت لديك أسلحة ذاتية التشغيل فتاكة، فبدلاً من عودة الموتى، ستعود روبوتات ميتة”.
أشار إلى أن التكنولوجيا بالفعل تعيد تشكيل الحرب، فطائرات دون طيار رخيصة قادرة على تدمير دبابات باهظة الثمن، وأن الطائرات المقاتلة التقليدية التي يقودها بشر باتت تبدو قديمة الطراز، وقال: “الطائرات المقاتلة التي يقودها بشر فكرة سخيفة الآن، إذا كان بالإمكان دمج الذكاء الاصطناعي فيها، فيمكن للذكاء الاصطناعي تحمّل تسارعات أكبر بكثير، ولن يكون هناك داعٍ للقلق كثيرًا بشأن الخسائر في الأرواح”.
أشار أيضًا إلى أن استخدام التكنولوجيا المتقدمة في الحروب قد لا يقلل من الخسائر بل يشجّع على المغامرة العسكرية، لأن الآلات المدعّمة بالذكاء الاصطناعي قد تزيل ذلك الرادع التاريخي المتمثّل في حياة الجنود، بينما يدفع ذلك مصنّعي الأسلحة إلى تطوير أسلحة أقوى.
نبه كذلك إلى مخاطر طويلة الأمد تتمثل في احتمال تفوّق الذكاء الاصطناعي على الذكاء البشري خلال فترة تُقدَّر بين خمس وعشرين عامًا، معتبرًا أن ذلك قد يشكل خطرًا وجوديًا إذا خرجت الآلات عن السيطرة.



