تواجه منصات التواصل الاجتماعي صعوبات في تطبيق قواعد رقمية واضحة، إذ تستضيف ملايين المحتويات التي قد تخالف المعايير المنشودة وتبقى الحدود بين خطاب الكراهية والمعلومات المضللة غير محددة بشكل حاسم. كما أن غياب تعريفات موحدة يجعل القياس أقل دقة، ما يفتح باباً لسوء الاستخدام وانتشار المحتوى الضار.
يتوجب أن يوضح المنشئون أن بعض المحتوى قد يكون ترفيهيّاً أو فكاهياً، فتصنيف مقطع فيديو كجزء من المزاح يتطلب تمييزاً واضحاً كي لا يُساء فهمه وتنتشر معلومات مضللة. كما يمكن أن يساعد شرط صريح يبيِّن هدف المحتوى كخلفية معرفية أو خيالية في تقليل سوء الفهم وانتشار الأخبار الكاذبة، وتكون هذه الإيضاحات جزءاً من إطار الاستخدام لدى المنصة.
وضع معايير أكثر وضوحاً وممارسة أخلاقية للمحتوى يمثلان خطوتين أساسيتين لجعل وسائل التواصل الاجتماعي بيئة أكثر أمناً ومسؤولية، مع الإشارة إلى أهمية وجود جهة تشرف على مراقبة الالتزام بهذا الإطار من قبل المنصات وقنوات الترحيل.
مراقبة امتثال وسائل التواصل الاجتماعي
تُراقب امتثال المنصات لقواعد الاستخدام من خلال مجموعة من الجهات الحكومية والفرق الإشرافية داخل كل منصة وآليات الرقابة المستقلة، بهدف ضمان الالتزام بمبادئ المساءلة والشفافية.
1- منصات التواصل الاجتماعي نفسها
تملك منصات كالفيسبوك وتويتر ويوتيوب وإنستجرام فرقاً مخصصة للإشراف على المحتوى واستخدام أنظمة ذكاء اصطناعي لكشف المحتوى الضار وإزالته، كما تستجيب للشكاوى وطلبات الإزالة الحكومية وتصدر إرشادات مجتمعية وتقارير شفافية وتتعاوَن مع شركاء للتحقق من الحقائق لرصد المعلومات المضللة.
2- الرقابة المستقلة والمجتمع المدني
تدافع منظمات مثل مؤسسة الحدود الإلكترونية وأكسس ناو عن الحقوق الرقمية وتراقب مساءلة المنصات، وفي بعض الحالات تتدخل الجهات القضائية عند الطعن القانوني في قرارات المحتوى.
3- الهيئات الحكومية التنظيمية
تضع هذه الهيئات قوانين الإعلام الرقمي وتنفذها عبر إرشادات خاصة، مثل الهند حيث تشرف وزارتي الإلكترونيات وتكنولوجيا المعلومات والإعلام على الامتثال وتفرض عقوبات، وأستراليا حيث تسري قواعد السلامة على الإنترنت وفق قانون عام 2021 وتنفذها مفوضية السلامة الإلكترونية، والاتحاد الأوروبي الذي يطبق قانون الخدمات الرقمية (DSA) لإزالة المحتوى غير القانوني ونشر تقارير الشفافية، وألمانيا التي تراقبها مكتب العدالة الاتحادي بموجب NetzDG لإزالة خطاب الكراهية والمحتوى غير القانوني خلال 24 ساعة، والمملكة المتحدة حيث يخطط تنظيم السلامة على الإنترنت بموجب مشروع قانون قادم بواسطة مكتب الاتصالات.
في الدول التي لا تتَّبع بنية مركزية للنظم التنظيمية، كما هو الحال في الولايات المتحدة، توجد جهات حكومية متعددة تشرف على جوانب مختلفة من المنصات وفق طبيعة القضية مثل الخصوصية وحماية المستهلك والأمن القومي ونزاهة الانتخابات، بما يمنح كل جهة اختصاصاً في إزالة المحتوى السلبي ضمن نطاقها، وهو ما يتيح تخصصاً أفضل لكنها يتطلب تدقيقاً مركزياً لضمان الاتساق والمساءلة عبر المنصات المختلفة.
إلا أنه من الضروري وجود هيئة مركزية أو مجموعة رقابية مسؤولة عن رصد جهود الجهات المعنية وتوثيق الإجراءات المتخذة، ما يسهم في الحفاظ على بيئة رقمية أنظف وأكثر مسؤولية عبر مختلف المنصات وتنسيق الجهود بين الأطراف المعنية لضمان تطبيق المعايير بشكل موحد وشفاف.



