كشف التحقيق الذي أجرته The Guardian بالتعاون مع Investigate Europe أن بعض أنظمة الذكاء الاصطناعي التي طورتها شركات كبيرة قد تقود المستخدمين أحياناً إلى مواقع قمار غير قانونية عبر الإنترنت، حيث اختبرت فرق الصحفيين عدة أنظمة ذكاء اصطناعي من OpenAI وGoogle وMicrosoft وMeta وروبوت Grok، وطرحوا أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود التنظيمية للمقامرة.
أظهرت النتائج أن بعض برامج الدردشة قدمت قوائم بمواقع قمار غير مرخصة، وكذلك معلومات حول كيفية استخدامها، وهو ما يثير القلق حول احتمال توجيه المستخدمين إلى خدمات غير قانونية.
تفاصيل التحقيق
من بين النقاط الأكثر إثارة للجدل أن بعض روبوتات الدردشة قدمت إرشادات حول كيفية تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة. ففي المملكة المتحدة، يسمح GamStop للأشخاص بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن بعض أدوات الذكاء الاصطناعي اقترحت البحث عن مواقع كازينو غير مرتبطة بهذا النظام.
كما أشارت النتائج إلى ردود تتضمن ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأموال وإمكانية استخدام العملات الرقمية، وهي سمات تقدمها عادة كازينوهات تعمل من مناطق تنظيمية خارجية.
رد الشركات التقنية
وردت الشركات المطورة على النتائج مؤكدة أنها تعمل باستمرار على تحسين إجراءات الأمان. وأوضحت شركة OpenAI أن نظام ChatGPT مصمم لرفض الطلبات التي تسهل الأنشطة غير القانونية، بينما أشارت مايكروسوفت إلى أن Copilot يحتوي على طبقات حماية متعددة لمنع التوصيات الضارة.
وتأتي هذه النتائج في وقت يزداد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدية، خصوصًا عند التعامل مع مواضيع حساسة مثل الصحة النفسية أو الإدمان أو الأنشطة غير القانونية، وحذر المنظمون في المملكة المتحدة من أن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهود إضافية لمنع انتشار المحتوى الضار بموجب قانون السلامة على الإنترنت.



