أطلقت هيئات الأمم المتحدة تحذيرًا عالميًا أمام تصاعد مخاطر الذكاء الاصطناعي على الأطفال بسبب تدفّق المحتوى الضار الذي تنشره وتولده أنظمة الذكاء الاصطناعي على الإنترنت.
وأوضح كوزماس زافازافا، مدير مكتب التنمية في الاتحاد الدولي للاتصالات، أن الذكاء الاصطناعي يستهدف الأطفال بطرق متعددة تشمل الاستغلال الجنسي والتزييف العميق والترويج للمحتوى الضار والتنمر الإلكتروني إضافة إلى المحتوى غير اللائق، مشيرًا إلى أن جائحة كوفيد-19 أظهرت أن كثيرًا من الأطفال، خصوصًا الفتيات والشابات، تعرضوا للإيذاء عبر الإنترنت وفي كثير من الحالات صار الإيذاء جسديًا.
أشكال الاستغلال الإلكتروني المستهدفة للأطفال
وحذر خبراء من أن المتحرشين يستخدمون الذكاء الاصطناعي لتحليل سلوك الطفل وحالته النفسية واهتماماته لتصميم استدراجه، كما يمكن للذكاء الاصطناعي أن يساعد الجناة في إنشاء صور فاضحة مزيفة لأطفال حقيقيين، وهو ما يفتح بابًا لابتزاز جنسي جديد.
وأفاد معهد تشايلدلايت العالمي لسلامة الطفل في تقرير صدر عام 2025 بأن حالات الاعتداء على الأطفال التي تسهّلها التكنولوجيا في الولايات المتحدة ارتفعت من نحو 4700 حالة في 2023 إلى أكثر من 67000 حالة في 2024، وهو ما يعكس ارتفاع المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي.
وأشار التقرير إلى أن الدول الأعضاء في الأمم المتحدة تتخذ إجراءات أكثر صرامة مع ازدياد معرفتها بخطورة المشكلة، ففي نهاية 2025 أصبحت أستراليا أول دولة في العالم تحظر حسابات وسائل التواصل الاجتماعي للأطفال دون سن 16 عامًا، بناءً على أن مخاطر المحتوى المنشور من قبل الأطفال تفوق أي فائدة محتملة، وذلك استنادًا إلى تقرير أعدته الحكومة لهذا القرار. كما أظهرت النتائج أن ما يقرب من ثلثي الأطفال بين 10 و15 عامًا شاهدوا محتوى يحض على الكراهية أو العنف أو الإساءة، وأن أكثر من نصفهم تعرضوا للتنمر الإلكتروني، مع أغلب هذا المحتوى على منصات التواصل الاجتماعي.
وذكر أن دولًا أخرى مثل ماليزيا وبريطانيا وفرنسا وكندا تسعى لخطوات مماثلة عبر إعداد لوائح تقيد أو تحظر مثل هذه الأنشطة، وفقًا للتقرير.
بيان أممي مشترك حول سلامة الأطفال في عصر الذكاء الاصطناعي
وفي مطلع عام 2026، وقّعت هيئات تابعة للأمم المتحدة المعنية بسلامة الطفل بيانًا واحدًا يحذر من مخاطر الذكاء الاصطناعي وعجز المجتمع عن مواجهتها، مع الإشارة إلى نقص الوعي بالذكاء الاصطناعي بين الأطفال والمعلمين وأولياء الأمور وغياب التدريب الفني لصانعي السياسات في أطر الذكاء الاصطناعي وحماية البيانات وتقييم أثر حقوق الطفل.
وحمل البيان جزءًا من المسؤولية للشركات التكنولوجية، قائلاً إن غالبية الأدوات المدعومة بالذكاء الاصطناعي ونماذجها وتقنياتها وأنظمتها الأساسية ليست مصممة لتراعي حقوق الأطفال ورفاهيتهم في الحاضر، واعتبر أن القطاع الخاص شريكٌ، ولكنه يجب أن يدق ناقوس الخطر عندما تفضي مخرجاته إلى نتائج غير مرغوبة، ويدعو المجتمع بأسره إلى تحمل مسؤولية حماية الأطفال من المخاطر والإيذاء الناتج عن استخدام هذه التقنية.
وأكدت الوثيقة أن الهيئات الأممية المعنية بسلامة الأطفال تشدد على ضرورة أن تراعي شركات التقنية حقوق الطفل في تصميم وتحقيق منتجاتها، وتدعو إلى تعزيز الوعي وتوفير التدريب وتقييم أثر السياسات على حقوق الأطفال، إضافة إلى حماية البيانات وتوجيه الاستخدام المسؤول. وتختتم الدعوة إلى التزام حكومات وشركات المجتمع والأسر بتوفير بيئة آمنة لاستخدام الذكاء الاصطناعي دون إلحاق الضرر بالأطفال، مع تعزيز آليات الإبلاغ عن المخاطر وفرض إجراءات تنظيمية رادعة عند الضرورة.



