أطلقت مايكروسوفت Maia 200 كخلف لشريحة Maia 100 التي أُطلقت في 2023، وهي مصممة لتشغيل نماذج الذكاء الاصطناعي القوية بسرعة أعلى وبكفاءة أكبر. تحتوي الشريحة على أكثر من 100 مليار ترانزستور، وتحقق أداءً يفوق 10 بيتافلوب في دقة 4-بت، وحوالي 5 بيتافلوب في دقة 8-بت، وهو تحسن كبير مقارنة بسابقتها.
مفهوم الاستنتاج ولماذا هو مهم
يشير الاستنتاج إلى تشغيل نموذج الذكاء الاصطناعي بعد إتمام تدريبه، وليس إلى العمليات الحسابية الخاصة بالتدريب نفسه. مع نضوج سوق الذكاء الاصطناعي، أصبحت تكاليف الاستنتاج جزءاً من التكاليف التشغيلية الإجمالية، مما دفع إلى تركيز أكبر على تحسين هذه العملية.
تأمل مايكروسوفت أن تكون Maia 200 جزءاً من تحسين الأداء بما يتيح لشركات الذكاء الاصطناعي العمل بأقل تعطيل وباستهلاك طاقة أقل، وتقول الشركة: يمكن لعقدة واحدة من Maia 200 تشغيل نماذج كبيرة حالياً بسهولة، مع مساحة كبيرة للنماذج الأكبر مستقبلًا.
تحدي سيطرة نفيديا
تهدف Maia 200 إلى تقديم أداء أعلى في مهام الاستدلال مع خفض تكاليف التشغيل، مما يجذب كبار عملاء الذكاء الاصطناعي، ويعزز قدرة مايكروسوفت على تقديم خدمات ذكاء اصطناعي أكثر كفاءة، خاصة مع الطلب المتزايد على نماذج مثل كوبايلوت.
الاتجاه العالمي نحو شرائح مصممة داخلياً
تأتي Maia في إطار توجه متزايد لدى عمالقة التكنولوجيا نحو تصميم شرائحهم الخاصة لتقليل الاعتماد على نفيديا، فمثلاً لدى جوجل وحدات TPU (معالجات Tensor) وتُباع كقدرة حسابية عبر السحابة، بينما تمتلك أمازون شريحة Trainium الخاصة بها التي أطلقت Trainium3 في ديسمبر، وتساعد على تخفيف الحمل عن نفيديا وخفض تكاليف الأجهزة.
استخدام Maia 200 حاليًا
تؤكد مايكروسوفت أن Maia تعمل بالفعل على تشغيل نماذج الذكاء الاصطناعي لفريق Superintelligence التابع لها، وتدعم عمليات Copilot، وروجت منذ أيام لدعوة المطورين والأكاديميين ومختبرات الذكاء الاصطناعي الرائدة لاستخدام حزمة Maia 200 في أعمالهم.



