أطلقت DeepSeek نموذجًا مفتوح المصدر للذكاء الاصطناعي يحمل اسم DeepSeek-OCR يعيد تعريف تحليل ومعالجة النصوص العادية، فهو يحوّله إلى بُعد بصري باستخدام تمثيل ثنائي الأبعاد يتيح ضغط السياق الطويل في شكل يسهل على الآلة استيعابه.
توضح الشركة أن نماذج اللغة الكبيرة تكون أكثر كفاءة في معالجة البكسلات مقارنة بالنصوص التقليدية، إذ يسمح هذا الأسلوب للنموذج باقتناص المعلومات الأكثر صلة لتوليد استجابات أدق وأسرع، ووفقًا لبيانات DeepSeek فإن النهج الجديد يحقق دقة أعلى مقارنة بالطرق التقليدية في فهم وتحليل النصوص.
تقنية جديدة مبنية على OCR
يعتمد DeepSeek-OCR على تقنية التعرّف الضوئي على الحروف (OCR)، لكنه يذهب خطوة أبعد من ذلك، فهو يحوّل النصوص إلى صور قبل تحليلها، مما يمكّنه من تخزين وفهم كميات كبيرة من المعلومات بطريقة أكثر كفاءة.
ويُعرف هذا المفهوم باسم “الضغط البصري للسياق”، حيث يحوّل النموذج صفحات نصية طويلة إلى صور، ثم يُترجمها إلى رموز بصرية مكثّفة أصغر حجمًا بكثير من الرموز النصية المعتادة.
على سبيل المثال، يمكن للنموذج معالجة مقال من 1000 كلمة باستخدام نحو 100 رمز بصري فقط، وهو إنجاز كبير في تقليص حجم البيانات دون فقدان المعنى.
إتاحة مفتوحة ومجتمع متفاعل
النموذج متاح حاليًا عبر GitHub تحت رخصة MIT، ما يتيح استخدامه للأغراض الأكاديمية والتجارية، وقد حظي DeepSeek-OCR بإقبال واسع، إذ تجاوز 6700 إعجاب خلال 24 ساعة من الإطلاق، ما يعكس الاهتمام الكبير بالنهج الجديد في معالجة النصوص بصريًا.
