نتائج الدراسة وتأثيرها على الثقة في الأخبار
كشف تقرير حديث صادر عن اتحاد البث الأوروبي (EBU) وهيئة الإذاعة البريطانية (BBC) أن ما يقرب من نصف الردود التي تقدمها برامج المساعدة الرقمية القائمة على الذكاء الاصطناعي تحمل مخاطر تتعلق بالدقة والمصادر والتأثير المحتمل على المشاركة الديمقراطية.
منهج الدراسة والنتائج الأساسية
حلَّلت الدراسة 3000 رد من مساعدات رقمية شائعة تعمل بالذكاء الاصطناعي عبر 14 لغة، وقُيِّمَت مساعدين شائعين مثل ChatGPT وCopilot وGemini وPerplexity، وشاركت 22 مؤسسة إعلامية خدمت عامة من 18 دولة في الدراسة. أظهرت النتائج أن 45% من الإجابات احتوت على مشكلة مهمة واحدة على الأقل، بينما احتوت 81% منها على شكل من أشكال المشاكل.
كان Gemini من Google الأبرز في وجود مشاكل المصدر، حيث تأثرت 72% من إجاباته بمشاكل المصادر، مقارنةً بأقل من 25% للمساعدين الآخرين. كما وُجدت مشاكل تتعلق بالدقة في 20% من جميع الردود، بما في ذلك معلومات قديمة وأخطاء واقعية، ومن أمثلة ذلك تقرير Gemini الخاطئ حول تغييرات في القوانين المتعلقة بالسجائر الإلكترونية التي تُستخدم لمرة واحدة، وتقرير تشات جي بي تي الذي ذكر أن البابا فرانيس كان البابا الحالي بعد عدة أشهر من وفاته.
مع تزايد شعبية هذه المساعدات كبديل لمحركات البحث التقليدية عن الأخبار، ثمة مخاوف من أن عدم دقتها قد يضعف ثقة الجمهور، وهو ما سلط عليه اتحاد البث الأوروبي الضوء، مؤكداً أهمية المعلومات الموثوقة للمجتمعات الديمقراطية.
كشف تقرير الأخبار الرقمية 2025 الصادر عن معهد رويترز أن نحو 7% من جميع مستخدمي الأخبار عبر الإنترنت، و15% ممن تقل أعمارهم عن 25 عامًا، يستخدمون الآن برامج المساعدة بالذكاء الاصطناعي للوصول إلى الأخبار.
ويحث هذا التحول شركات التكنولوجيا على تحمل مسؤولية إضافية لضمان توفير منتجاتها معلومات دقيقة ومصادر موثوقة ومنسوبة بوضوح.
تحذيرات من الهلوسة والكذب في النماذج الذكية
وأوصى تقرير اتحاد الإذاعات الأوروبية بتحمل شركات الذكاء الاصطناعي للمسؤولية وتحسين كيفية استجابة المساعدين الآليين للاستفسارات المتعلقة بالأخبار. وتبيَّن أن المساعدين لا يواجهون فقط مشاكل في تحديد المصادر، بل يواجهون صعوبة في التمييز بين الحقيقة والرأي، ورغم وعي الشركات بهذه القضايا فهناك اعتراف بالحاجة إلى تحسينات مستمرة.
وتم التأكيد على وجود قضايا الهلوسة، حيث تُنتج نماذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، وهو تهديد يُعيد المجتمع إلى مخاطر الثقة بمؤسسات الإعلام. وأشارت تقارير أخرى إلى أن إحدى وضعيات Perplexity للبحث العميق تُحقق دقة نسبها الواقعية نحو 93.9% في قياس الواقعية.
تشير أعداد أخرى إلى أن هذه البرامج باتت تشكل محوراً رئيسياً في وصول الجمهور إلى الأخبار، ما يجعل من مهمة الشركات التقنية ضمان دقة منتجاتها ومصادرها ومصداقيتها أمراً حيوياً لثقة المجتمعات الديمقراطية واستدامة المشاركة المدنية.
