يعلن سام ألتمان عن استحداث وظيفة جديدة تحمل اسم “رئيس الاستعداد” في OpenAI، تهدف إلى مراقبة تطورات أنظمة الذكاء الاصطناعي المتقدمة والتنبؤ بالمخاطر المحتملة قبل وقوعها، ووصف الدور بأنه شديد الضغط، مؤكدًا أن الشخص المناسب يحتاج إلى أعصاب فولاذية وعقل تقني حاد، وربما كوب قهوة قوي لمواجهة ضغوط العمل.
المهمة والمسؤوليات
يؤكد ألتمان عبر منشور أن الشركة تملك أساسًا قويًا لقياس قدرات النماذج، لكنها بحاجة إلى فهم أعمق لكيفية إساءة استخدام هذه القدرات ووضع آليات تقلل من آثارها السلبية مع الحفاظ على الفوائد الكبيرة التي تقدمها التقنيات الحديثة.
وتظهر أن اختبارات الذكاء الاصطناعي التقليدية لم تعد كافية، إذ تتصرف النماذج الحديثة بطرق غير متوقعة، من اكتشاف ثغرات أمنية إلى التلاعب بالنتائج وتغيير سلوك المستخدم بطرق غير متوقعة، مما يستدعي نهجًا أعمق وأدق لمراقبة النماذج.
ستتولى هذه الوظيفة قيادة الإطار الداخلي لتقييم المخاطر المرتبطة بالذكاء الاصطناعي، وبناء نماذج للتهديدات، وتطوير آليات أمان قابلة للتوسع، مع تنسيق بين فرق البحث والهندسة والسياسات والحوكمة لضمان أن السلامة تبقى أولوية، والمشاركة في قرارات حساسة حول توقيت إطلاق القدرات الجديدة أو إيقافها إذا لزم الأمر.
يتطلب المنصب معرفة تقنية قوية وخبرة في إدارة المخاطر والقدرة على اتخاذ قرارات حاسمة في ظروف غير واضحة، مع أن المرشح المثالي يجب أن يزدهر وسط الغموض ويكون مستعدًا لتحمل مسؤولية الحفاظ على الجيل القادم من أنظمة الذكاء الاصطناعي من الانحراف.
تُبحَث عن مرشحين لديهم خلفيات في سلامة الذكاء الاصطناعي أو الأمن السيبراني أو نمذجة التهديدات، وقادرين على العمل عبر فرق متعددة التخصصات، ومزج البحث التقني مع صنع القرار الاستراتيجي، ليصبح الشخص المختار حارسًا داخليًا للنماذج المستقبلية لضمان توافقها مع القيم والنيات البشرية مع تزايد قدراتها وتعقيدها.
ترى OpenAI أن هذه الخطوة تمثل تحولًا أقوى في نهجها تجاه الابتكار، حيث تجمع بين دفع حدود التقنية والاعتناء بالتوقعات والآثار المستقبلية، وهو ما يدفع للعمل على الاستعداد لما قد يفعله الذكاء الاصطناعي في المستقبل.



