أطلق DeepSeek نموذجًا مفتوح المصدر للذكاء الاصطناعي يعيد تعريف طريقة تحليل ومعالجة النصوص العادية، ويحمل النموذج اسم DeepSeek-OCR، وهو مصمم لتحويل النص إلى بُعد بصري باستخدام رسم الخرائط ثنائية الأبعاد، مما يسمح بضغط السياق الطويل في شكل يسهل على الآلة استيعابه.
توضح الشركة أن نماذج اللغة الكبيرة تكون أكثر كفاءة في معالجة البكسلات مقارنة بالنصوص التقليدية، إذ يسمح هذا الأسلوب للنموذج باستخلاص المعلومات الأكثر صلة لتوليد استجابات أدق وأسرع، ووفقًا لبيانات DeepSeek، فإن النهج الجديد يحقق دقة أعلى مقارنة بالطرق التقليدية في فهم وتحليل النصوص.
تقنية جديدة مبنية على OCR
يعتمد DeepSeek-OCR على تقنية التعرّف الضوئي على الحروف (OCR)، لكنه يذهب خطوة أبعد من ذلك، فهو يحوّل النصوص إلى صور قبل تحليلها، وهو ما يمكّنه من تخزين وفهم كميات كبيرة من المعلومات بطريقة أكثر كفاءة.
ويعرف هذا المفهوم بـ “الضغط البصري للسياق”، حيث يحوّل النموذج صفحات نصية طويلة إلى صور، ثم يُترجمها إلى رموز بصرية مكثّفة أصغر حجمًا بكثير من الرموز النصية المعتادة.
على سبيل المثال، يمكن للنموذج معالجة مقال من 1000 كلمة باستخدام نحو 100 رمز بصري فقط، وهو إنجاز كبير في تقليص حجم البيانات دون فقدان المعنى.
إتاحة مفتوحة ومجتمع متفاعل
النموذج متاح حاليًا عبر GitHub بموجب رخصة MIT، ما يتيح استخدامه للأغراض الأكاديمية والتجارية.
وقد حظي DeepSeek-OCR بإقبال واسع، حيث تجاوز 6700 إعجاب خلال 24 ساعة من إطلاقه، وهو يعكس الاهتمام الكبير بالنهج الجديد في معالجة النصوص بصريًا.
