تشير النتائج المعيارية إلى تفوق ملحوظ لـChatGPT على Gemini في مجالات تتطلب تفكيرًا عميقًا وبناء استدلال علمي.
المجالات الثلاث التي أظهر فيها ChatGPT تفوقًا
في اختبار GPQA Diamond المصمم لقياس التفكير على مستوى الدكتوراه في الفيزياء والكيمياء والأحياء، سجلت ChatGPT-5.2 نسبة 92.4% مقارنة بـ 91.9% لـ Gemini 3 Pro. وتُعرف هذه الأسئلة بأنها “مضادة لمحركات البحث”، فلا يمكن الوصول إلى الإجابة عبر بحث مباشر، بل تتطلب ربط مفاهيم علمية متعددة وتجنب الاستنتاجات السطحية. كما يُشار إلى أن متوسط نتائج خريجي الدكتوراه نحو 65%، بينما لا يتجاوز غير المتخصصين 34%.
في مجال البرمجة، يظهر اختبار SWE-Bench Pro النتائج: ChatGPT-5.2 تمكن من حل نحو 24% من هذه المشكلات، مقابل 18% لـGemini. ورغم أن النسب قد تبدو منخفضة، فإن صعوبة الاختبار تفسر ذلك، إذ لا يزال الإنسان يتفوق بحل 100% من هذه الحالات.
في اختبار ARC-AGI-2، الذي يقيس القدرة على استنتاج الأنماط المجردة من أمثلة محدودة، حقق ChatGPT-5.2 Pro نتيجة 54.2%. في المقابل، سجل Gemini 3 Pro 31.1% فقط، بينما حققت نسخ Gemini الأعلى تكلفة نتائج أقرب لكنها لم تتفوق.
يُعد هذا المجال من أصعب التحديات أمام الذكاء الاصطناعي، ولكنه من النقاط التي يظهر فيها تفوق ChatGPT ليس فقط على Gemini، بل على معظم المنافسين.
كيف تم الوصول إلى النتائج؟
اعتمد التحليل على أحدث الإصدارات المدفوعة من النظامين، مع التركيز على الاختبارات المعيارية بدلًا من المقارنات الشخصية. ورغم وجود اختبارات أخرى يتفوق فيها Gemini، فهذه المعايير الثلاثة تمثل مزيجًا مهمًا من التفكير العلمي، وحل المشكلات، والذكاء المجرد.
في النهاية، تبقى المنافسة مفتوحة ومتغيرة، لكن الأرقام الحالية تشير إلى أن ChatGPT يحتفظ بتقدم ملحوظ في مجالات تتطلب عمقًا في التفكير وليس مجرد إجابات سريعة.



