تسعى مايكروسوفت من Maia 200 إلى تعزيز قدرات الاستدلال في نماذج الذكاء الاصطناعي عالية الحجم مع تقليل استهلاك الطاقة وتقليل أوقات التوقف، وهو ما يعزز الكفاءة في تشغيل النماذج الكبيرة مع وجود مجال للنمو المستقبلي.
مواصفات الشريحة وأداؤها
تأتي Maia 200 كخلف لشريحة Maia 100 التي أُطلقت في عام 2023، وتُصمَّم لتشغيل نماذج الذكاء الاصطناعي القوية بسرعة أعلى وبكفاءة أكبر. تحتوي الشريحة على أكثر من 100 مليار ترانزستور وتحقّق أداء يفوق 10 بيتافلوب في دقة 4-بت، وحوالي 5 بيتافلوب في دقة 8-بت، وهو تحسن كبير مقارنة بسابقتها.
ماهو الاستنتاج ولماذا هو مهم
يشير الاستنتاج إلى عملية تشغيل نموذج الذكاء الاصطناعي أثناء التنبؤات وليس أثناء التدريب. ومع نضوج شركات الذكاء الاصطناعي، أصبحت تكاليف الاستنتاج جزءًا من إجمالي تكاليف التشغيل، مما دفع إلى البحث عن طرق لتحسين هذه العملية. تأمل مايكروسوفت أن تكون Maia 200 جزءًا من تحسين الأداء بحيث تعمل الشركات بأقل تعطّل وباستهلاك طاقة أقل. عمليًا، يمكن لعقدة واحدة من Maia 200 تشغيل أكبر النماذج الحالية بسهولة، مع وجود مساحة كبيرة للنماذج الأكبر في المستقبل.
تحدي سيطرة نفيديا
تهدف Maia 200 إلى تقديم أداء أفضل في مهام الاستدلال مع تقليل تكاليف التشغيل، وهو ما يجذب العملاء الكبار في قطاع الذكاء الاصطناعي، ويدعم تقديم خدمات ذكاء اصطناعي أكثر كفاءة خاصة مع نمو الطلب على نماذج مثل كوبيلوت.
الاتجاه العالمي نحو شرائح مصممة داخلياً
تأتي Maia ضمن اتجاه متزايد لدى عمالقة التقنية نحو تصميم شرائحهم الخاصة لتقليل الاعتماد على نفيديا، حيث أصبحت وحدات معالجة الرسومات المتطورة الخاصة بهم أساسية لنجاح مشاريع الذكاء الاصطناعي. فمثلاً لدى جوجل وحدات TPU، وهي وحدات معالجة النصوص التي تُباع كقدرات حسابية عبر السحابة وليس كشرائح مستقلة، بينما تمتلك أمازون شريحة Trainium الخاصة بها، التي أطلقت نسختها Trainium3 في ديسمبر، وتساعد على تقليل الحمل عن نفيديا وتكاليف الأجهزة.
الاستخدام الحالي لـ Maia 200
تقول مايكروسوفت إن Maia تعمل حالياً على تشغيل نماذج الذكاء الاصطناعي لفريق Superintelligence، كما تدعم عمليات Copilot، الروبوت المحادثي للشركة. ودعت الشركة مطورين وأكاديميين ومختبرات الذكاء الاصطناعي الرائدة لاستخدام Maia 200 في أعمالهم.



