أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن، وتدعو إلى فرض قيود تشريعية تقضي بمنع تطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق، وإلزام الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في جميع النماذج القوية لضمان سيطرة بشرية مطلقة عليها. كما تدعو الخارطة إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير الذاتي المستقل، وتفرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا لتجنب التلاعب النفسي الخطير.
وتبرز الوثيقة غياب أطر قانونية فاعلة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي التوليدي، وتؤكد أن المخاطر الوجودية والمجتمعية الناتجة عن فقدان السيطرة على الأنظمة الآلية تستدعي تبني أطر تنظيمية صارمة تحمي مستقبل البشرية وتوجه الابتكار نحو مسارات آمنة ومستدامة اقتصاديا وأخلاقيا.
الذكاء الخارق ومفاتيح الإيقاف
يُعرّف الذكاء الخارق بأنه مستوى متقدم جدًا ومستقبلي من الذكاء الاصطناعي يتجاوز قدرات البشر في جميع المجالات المعرفية والعلمية، ولذا تُطالب الرؤية المطروحة بآليات تقنية وبرمجية مدمجة داخل الأنظمة الآلية تسمح للمشغلين البشريين بتعطيل البرامج القوية فورًا إذا خرجت عن السيطرة أو أظهرت سلوكًا خطيرًا.



