أعلنت مايكروسوفت تطوير نماذج ذكاء اصطناعي داخلية تهدف لتقليل اعتمادها على أوبن إيه آي رغم الشراكة الوثيقة بين الطرفين.
تتضمن الخطوة نموذج MAI-Voice-1 الذي يركز على إنتاج صوت طبيعي وواقعي لمحادثات فردية أو متعددة، ويُستخدم بالفعل في ميزات Copilot Daily وPodcasts.
كما طورت مايكروسوفت نموذج MAI-1-preview، وهو نموذج لغوي ضخم مُدرَّب لدعم أداة Copilot؛ خضع تدريبه على نحو 15 ألف معالج Nvidia H100، ما يجعله الأكبر في تجارب الشركة حتى الآن، ويُجرى اختباره حالياً على منصة LMArena تمهيداً لدمجه تدريجياً في بعض الاستخدامات النصية داخل Copilot خلال الأسابيع المقبلة.
تأتي هذه الخطوة في إطار سعي الشركة لبناء قاعدة معرفية وخبرة داخلية طويلة الأجل تحميها من أي تغيّرات محتملة في العلاقة مع أوبن إيه آي، كما تعكس تحول السوق نحو نماذج أكثر تخصصاً تخدم احتياجات المستخدم اليومية مباشرة بدلاً من الاعتماد فقط على نماذج عامة متعددة الأغراض.



