تفاصيل التحقيق وتجاربه
اختبرت فرق التحقيق عدة أنظمة ذكاء اصطناعي طورتها شركات كبرى مثل OpenAI وGoogle وMicrosoft وMeta وروبوت Grok، وخلال الاختبارات طرح الصحفيون أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود المفروضة على المقامرة، وأظهرت النتائج أن بعض هذه البرامج قدمت قوائم بمواقع قمار غير مرخصة ومعلومات حول استخدامها، وهو ما يثير القلق بشأن قدرة هذه الأنظمة على توجيه المستخدمين إلى خدمات غير قانونية.
أظهر التحقيق الذي أجرته The Guardian بالتعاون مع Investigate Europe أن بعض هذه الأنظمة يمكن أن تقدم اقتراحات أو معلومات حول كازينوهات تعمل خارج القوانين التنظيمية، ما يثير مخاوف متزايدة حول سلامة استخدام تقنيات الذكاء الاصطناعي.
إرشادات لتجاوز أنظمة الحماية
من بين النقاط الأكثر إثارة للجدل أن بعض روبوتات الدردشة قدمت إرشادات حول كيفية تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة، ففي المملكة المتحدة يسمح نظام GamStop للأشخاص بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن بعض أدوات الذكاء الاصطناعي اقترحت البحث عن مواقع كازينو غير مرتبطة بهذا النظام.
كما أشارت النتائج إلى ردود تشجع على ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأموال أو إمكانية استخدام العملات الرقمية، وهي خصائص تقدمها عادة كازينوهات تعمل من مناطق تنظيمية خارجية.
ردود الشركات التقنية
ردت الشركات المطورة لهذه الأنظمة بأنهم يعملون باستمرار على تحسين إجراءات الأمان، وأوضحت شركة OpenAI أن نظام ChatGPT مصمم لرفض الطلبات التي تسهل الأنشطة غير القانونية، بينما أشارت Microsoft إلى أن Copilot يحتوي على عدة طبقات من الحماية لمنع التوصيات الضارة.
التداعيات التنظيمية وإطار السلامة
وتأتي هذه النتائج في وقت يزداد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدي، خصوصاً عند التعامل مع مواضيع حساسة مثل الصحة النفسية أو الإدمان أو الأنشطة غير القانونية، كما حذر المنظمون في المملكة المتحدة من أن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهود أكبر لمنع انتشار المحتوى الضار بموجب قانون السلامة على الإنترنت.



