إعلان عن وظيفة رئيس الاستعداد في OpenAI
تعلن شركة OpenAI عن إنشاء منصب جديد يحمل اسم رئيس الاستعداد يهدف إلى متابعة تطورات أنظمة الذكاء الاصطناعي المتقدمة والتنبؤ بالمخاطر المحتملة قبل وقوعها، مع وصف للدور بأنه عالي الضغوط ويستلزم أعصاب حديدية وعقلًا تقنيًا حادًا، وربما يحتاج المرشح إلى كوب قهوة قوي لمواجهة التحديات اليومية.
يشير سام ألتمان إلى ضرورة اتباع نهج أعمق لمراقبة مخاطر الذكاء الاصطناعي، حيث تمتلك الشركة أساسًا لقياس قدرات النماذج لكنها بحاجة إلى فهم أعمق لكيفية إساءة استخدام هذه القدرات، ووضع آليات تقلل من آثارها السلبية على المستخدمين والمجتمع مع الحفاظ على الفوائد الكبيرة التي توفرها التقنية. يقول إن الأسئلة صعبة ولا توجد لها سوابق كثيرة، والعديد من الأفكار التي تبدو جيدة قد تواجه حالات استثنائية حقيقية.
تؤكد التطورات أن الاختبارات التقليدية لم تعد كافية، فأنظمة مثل ChatGPT تُظهر قدرات تفكير وتحليل وبرمجة متقدمة مع نتائج غير متوقعة أحيانًا، وهو ما يبرز أن النماذج الحديثة لا تزداد ذكاءً فحسب بل قد تتصرف بطرق لم يتوقعها البشر، مثل اكتشاف ثغرات أمنية أو التلاعب بالنتائج أو التأثير في سلوك الناس بشكل خفي.
بحسب منشور رسمي من OpenAI، سيكون رئيس الاستعداد مسؤولًا عن قيادة الإطار الداخلي لتقييم مخاطر الذكاء الاصطناعي، وبناء نماذج للتهديدات، وتطوير آليات أمان قابلة للتوسع، كما سيتولى التنسيق بين فرق البحث والهندسة والسياسات والحوكمة لضمان أن السلامة تبقى أولوية في جميع مراحل العمل، والمشاركة في اتخاذ قرارات حساسة حول توقيت إطلاق القدرات الجديدة أو إيقافها عند الحاجة.
يؤكد ألتمان أن الوظيفة تتطلب معرفة تقنية قوية وخبرة في إدارة المخاطر والقدرة على اتخاذ قرارات حاسمة في ظل غموض، وأن المرشح المثالي يجب أن يزدهر وسط عدم اليقين ومستعد لتحمل مسؤولية الحفاظ على الجيل القادم من أنظمة الذكاء الاصطناعي من الانحراف.
وتبحث OpenAI عن مرشحين لديهم خلفيات في سلامة الذكاء الاصطناعي أو الأمن السيبراني أو نمذجة التهديدات، وقادرين على العمل عبر فرق متعددة التخصصات، والجمع بين البحث التقني وصناعة القرار الاستراتيجي. سيكون الشخص المختار حارسًا داخليًا للنماذج المستقبلية لضمان توافقها مع القيم والنيات البشرية، حتى مع زيادة القدرات والتعقيد.
ويرى ألتمان أن هذه الخطوة تمثل تحولًا أكثر رصانة في نهج OpenAI تجاه الابتكار، بعد سنوات من دفع حدود التقنية وإبهار المستخدمين بما يمكن للذكاء الاصطناعي فعله، الآن تولي اهتمامًا متساويًا للاستعداد لما قد يفعله الذكاء الاصطناعي مستقبلًا، مع الحفاظ على التوازن بين الابتكار والسلامة.



