أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تحتوي على خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن. وتدعو الوثيقة إلى فرض قيود تشريعية من بينها منع تطوير أنظمة الذكاء الخارق دون إجماع علمي صلب، وإلزام الشركات الكبرى بإدراج آليات إيقاف حتمية وفعالة في جميع النماذج القوية لضمان سيطرة بشرية مطلقة عليها.
وفق تقارير إعلامية، أظهرت استطلاعات الرأي الحديثة أن الجمهور يرفض السباق غير المنظم نحو الوصول إلى الذكاء الخارق، وتؤكد الخطة أيضًا حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل، إضافة إلى فرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا لتجنب التلاعب النفسي الخطير.
يأتي هذا التحرك في ظل غياب قوانين حكومية فاعلة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي التوليدي، ويعكس إدراكًا متزايدًا للمخاطر الوجودية والمجتمعية التي قد تنجم عن فقدان السيطرة على الأنظمة الآلية المتطورة، ما يدفع المجتمع الدولي نحو تبني أطر تنظيمية صارمة تحمي مستقبل البشرية وتضمن توجيه الابتكار نحو مسارات آمنة ومستدامة اقتصاديًا وأخلاقيًا.
الذكاء الخارق ومفاتيح الإيقاف
يعرف الذكاء الخارق بأنه مستوى متقدم جدًا ومستقبلي من الذكاء الاصطناعي يتجاوز القدرات العقلية والتحليلية للبشر في جميع المجالات المعرفية والعلمية بشكل قاطع، ولذلك تطالب الخطة بآليات تقنية وبرمجية مدمجة داخل الأنظمة تتيح للمشغلين البشريين تعطيل البرامج القوية فور خروجها عن السيطرة أو ظهور سلوك خطير.



