ذات صلة

اخبار متفرقة

الاشتباه بجندي احتياط يزود جهات بمعلومات أمنية حساسة

ذكرت صحيفة يسرائيل هيوم أن جندي احتياط في منظومة...

لن تتوقع ما الذي يحدث للجسم عند تناول الشاي بالحليب مع الكحك والبسكويت؟

يُعَدّ شاي اللبن مع الكحك والبسكويت من أبرز العادات...

لعيد الفطر: طريقة عمل صينية السردين بالزيت والليمون

صينية السردين بالزيت والليمون استخدم 1 كيلوجرام سردين طازج منظف...

أفضل التسالي في العيد: كيف يساهم الترمس في صحة القلب والعظام

ابدأ فرحة العيد بتسالي خفيفة ولذيذة يتألق فيها الترمس...

صحة الجهاز الهضمي في العيد: كيف تحافظين على راحتك بعد الإفطار؟

ابدئي بتطبيق مجموعة من الإرشادات للحفاظ على صحة الجهاز...

العلامات المائية الرقمية.. الدرع الحامي لتمييز الواقع عن المحتوى المولَّد آلياً

تظهر تقنيات الذكاء الاصطناعي القادرة على توليد صور ونصوص ومقاطع صوتية واقعية بشكل يخلق أزمة ثقة عالمية في المحتوى الرقمي، حيث أصبح من الصعب على المتصفح العادي التفريق بين الصورة الفوتوغرافية الحقيقية وتلك التي تم تزييفها أو اختلاقها بالكامل بواسطة الآلة، وهو ما يُعرف بظاهرة التزييف العميق Deepfakes.

وللحد من التضليل والاحتيال اتجهت كبرى شركات التكنولوجيا إلى تطوير تقنية العلامات المائية الرقمية غير المرئية التي تُدمَج ببنية الملفات بحيث لا تراها العين، لكنها تقرؤها أجهزة الكمبيوتر لتحديد ما إذا كان المحتوى طبيعياً أم مولداً عبر خوارزميات الذكاء الاصطناعي.

وفي هذا السياق يبرز مشروع عالمي يسمى التحالف من أجل أصل المحتوى ومصداقيته C2PA، وهو يضم شركات متخصصة في مجالات الكاميرات والبرمجيات ووسائل التواصل، ويُوضح أن المعيار الجديد يعمل كـ “جواز سفر رقمي” يُرفق مع الصورة منذ لحظة التقاطها أو توليدها.

وذكرت تقارير تقنية أن المنصات الكبرى بدأت في اعتماد هذه التقنية وعرض أيقونة صغيرة توضّح تاريخ الملف والأداة المستخدمة لإنشائه، بهدف إرساء الشفافية وتمكين المستخدمين من الثقة فيما يرونه على الإنترنت.

كيف تعمل العلامات المائية الرقمية وإثبات الأصل

تعتمد العلامات المائية المتقدمة وتشفير الأصل على فكرة تشبه البلوك تشين في جوهرها، فبينما يُنشئ برنامج ذكاء اصطناعي صورة، تُزرع بيانات وصفية دقيقة مشفرة داخل بكسلات الصورة وتوزع عبرها بشكل معقد بحيث تصبح غير مرئية للملاحظ، وهذا التوزيع العشوائي يضمن بقاء العلامة حتى مع قص الصورة أو تغيير ألوانها أو أخذ لقطة شاشة.

وعندما تُرفع الصورة إلى منصة تدعم معايير الثقة الرقمية، تبحث الخوارزميات عن هذه البصمة الخفية، وإذا وجدت تُظهر تلقائياً للمستخدمين تحذيراً أو تسمية تفيد بأن المحتوى مولد بالذكاء الاصطناعي، مما يساهم في إحباط التضليل قبل انتشاره.

خطوات للتحقق من مصداقية المحتوى قبل المشاركة

في ظل التطور المتسارع للذكاء الاصطناعي يجب أن يكون كل مستخدم درعاً لمنع انتشار الشائعات عبر اتباع خطوات بسيطة، مثل البحث عن أيقونات المصداقية أو تفاصيل البيانات الوصفية المرفقة مع الصور في المنصات الاجتماعية، التي أصبحت تتيح معلومات حول المصدر وطرق التحرير.

إذا كُتب نص يدعي خبراً هاماً أو سياسياً، استخدم أدوات الفحص العكسي للصور وتطبيقات مجانية تقرأ العلامات المائية الرقمية غير المرئية لاكتشاف بصمة الذكاء الاصطناعي.

قم بالتدقيق البصري في التفاصيل التي تخطئ فيها خوارزميات التوليد عادة، مثل تساوي الأصابع في اليدين، وتداخل النصوص أو الإعلانات في الخلفية، واتجاه الظلال مقارنة بمصدر الإضاءة، قبل إعادة نشر المحتوى.

spot_img
spot_imgspot_img

تابعونا على