تتسارع تقنيات الذكاء الاصطناعي في العصر الرقمي الحالي بشكل لافت، ويمتد أثرها من توليد النصوص وتعديل الصور إلى مستوى مقلق يعرف بالتزييف العميق الذي أصبح مصدر قلق حقيقي.
إنشاء مقاطع فيديو أو تسجيلات صوتية مزيفة تبدو حقيقية تمامًا لأشخاص يقولون أو يفعلون ما لم يحدث في الواقع، ويتم ذلك عبر تدريب خوارزميات معقدة على آلاف الصور والمقاطع الصوتية للشخص المستهدف، مما يمكن الآلة من محاكاة تعابير الوجه ونبرة الصوت بدقة مذهلة.
يوضح تقرير تحليلي من MIT Technology Review أن الاعتماد الأساسي في هذه التقنية يقوم على ما يُسمى شبكات التوليد التنافسية التي تتنافس ضد بعضها؛ الأول يصنع المحتوى المزيف ويحاول جعله أقرب إلى الواقع، والثاني يعمل كمحقق يحاول كشف التزييف.
تكمن خطورة التزييف العميق في قدرته العالية على التلاعب بالرأي العام وتدمير السمعة الشخصية والمهنية. فبضع ثوانٍ من فيديو مزيف يمكن أن ينشر معلومات مضللة على نطاق واسع، مثل ظهور شخصية سياسية تدلي بتصريحات مستفزة تؤدي إلى أزمات، أو فبركة تصريحات لمدير تنفيذي تتسبب في انهيار أسهم الشركة. كما يستخدم قراصنة الإنترنت هذه التقنية في الاحتيال المالي، حيث يستنسخون صوت شخص موثوق كالمدير أو أحد أفراد العائلة للاتصال بالضحية وطلب تحويل أموال عاجل.
كيف تكتشف المحتوى المزيف وتحمي نفسك؟
يمكنك اتخاذ إجراءات بسيطة للتحقق من صحة المحتوى، مثل فحص حركة العين وتفاصيل الوجه؛ فغالباً ما تفقد خوارزميات التزييف دقة الرمش والظلال أو الانعكاسات في النظارات. راقب التزامن بين حركة الشفاه والصوت، فقد يظهر تأخُر بسيط أو اختلاف واضح بين الكلام وحركة الشفتين. استمع جيداً لجودة الصوت؛ قد تلاحظ نقصاً في التنفس الطبيعي بين الجمل أو وجود نبرة معدنية أو تشوهات صوتية تظهر وتختفي. تحقق من المصدر الأصلي للمعلومة عبر البحث في تقارير موثوقة من وكالات الأنباء ذات السمعة، فهذا الاعتماد يعزز الثقة ويكون خط الدفاع الأول ضد التضليل.



