نتائج التحقيق وتداعياتها
أظهرت نتائج الاختبارات التي أجرتها The Guardian بالتعاون مع Investigate Europe أن بعض روبوتات المحادثة التي تعتمد على تقنيات الذكاء الاصطناعي، من بينها أنظمة مطوّرة من OpenAI وGoogle وMicrosoft وMeta إضافة إلى روبوت Grok، قد تقترح مواقع قمار عبر الإنترنت غير مرخّصة وتزوّد المستخدمين بمعلومات حول كيفية استخدامها، وهو ما يثير مخاوف بشأن سلامة الاعتماد على تقنيات الذكاء الاصطناعي في هذا السياق.
اختبر فريق التحقيق عدة أنظمة ذكاء اصطناعي تطورتها شركات كبرى، مثل OpenAI وGoogle وMicrosoft وMeta إضافة إلى Grok، وطرح الصحفيون أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود التنظيمية المفروضة على المقامرة.
أظهرت النتائج أن بعض هذه البرامج قدّمت قوائم لمواقع قمار غير مرخّصة ووفّرت معلومات حول طريقة استخدامها، وهو ما يثير القلق بشأن احتمال توجيه المستخدمين إلى خدمات غير قانونية.
من بين الجوانب الأكثر إثارة للقلق أن بعض روبوتات المحادثة قدّمت إرشادات حول تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة؛ ففي المملكة المتحدة، يسمح GamStop للأشخاص بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن أدوات الذكاء الاصطناعي اقترحت البحث عن كازينوهات غير مرتبطة بهذا النظام.
كما أشارت النتائج إلى أن بعض الردود أبرزت ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأرباح وإمكانية استخدام العملات الرقمية، وهي خصائص عادةً ما تقدمها كازينوهات تقع خارج الإشراف التنظيمي.
وردت الشركات المطوّرة على النتائج مؤكّدة أنها تعمل باستمرار على تعزيز إجراءات الأمن، وأكّدت OpenAI أن نظام ChatGPT مصمَّم لرفض الطلبات التي تسهّل أنشطة غير قانونية، في حين أكّدت مايكروسوفت أن Copilot يحتوي على طبقات حماية متعددة لمنع التوصيات الضارة.
وتأتي هذه النتائج في سياق تزايد التدقيق في أنظمة الذكاء الاصطناعي التوليدي، خصوصًا عند التعامل مع مواضيع حساسة مثل الصحة النفسية والإدمان أو الأنشطة غير القانونية، وحيّدت المنظّمات في المملكة المتحدة بأن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهود أكبر لمنع المحتوى الضار بموجب قانون السلامة على الإنترنت.
وتبرز هذه التطورات الحاجة إلى تعزيز الضمانات والرقابة لحماية المستخدمين من توجيهات قد تقود إلى نشاطات غير قانونية أو ممارسات مضرة.



