أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن، وهي خطوة تنظيمية تهدف إلى إعادة ترتيب الفوضى التكنولوجية عبر معايير واضحة للجودة والسلامة والشفافية.
تطالب الوثيقة بفرض قيود تشريعية تقضي بمنع تطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق، وتلزم الدول الكبرى والجهات التنظيمية بتحديد أطر واضحة للمراقبة والتقييم قبل أي خطوة في هذا المجال.
وتُلزم الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في جميع النماذج القوية لضمان سيطرة بشرية مطلقة عليها في حال خرجت عن المسار المرسوم أو ظهرت سلوكيات خطرة.
وتؤكد الاستطلاعات الحديثة أن غالبية الجمهور ترفض السباق غير المنضبط نحو الذكاء الخارق، وهو ما يعزز موقف الدعوة إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير الذاتي المستقل.
وتدعو الوثيقة أيضًا إلى فرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا، بهدف حماية الناشئة من أي تلاعب نفسي أو تأثير ضار.
يأتي هذا التحرك في ظل غياب تشريعات حكومية فعالة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي التوليدي، وهو يعكس إدراكًا متزايدًا للمخاطر الوجودية والمجتمعية وتطلعات المجتمع الدولي إلى إطار تنظيمي صارم يوجه الابتكار نحو مسارات آمنة ومستدامة اقتصاديًا وأخلاقيًا.
الذكاء الخارق ومفاتيح الإيقاف
يُعرَّف الذكاء الخارق بأنه مستوى متقدم ومستقبلي يتجاوز القدرات العقلية للبشر في كل المجالات المعرفية والعلمية، وتدعو الرؤية إلى آليات تقنية وبرمجية تدمج داخل الأنظمة الآلية تسمح للمشغلين البشريين بتعطيل البرامج القوية فورًا إذا خرجت عن السيطرة أو أظهرت سلوكًا خطيرًا.



