كشف تحقيق مشترك أجرته The Guardian مع Investigate Europe أن أنظمة الذكاء الاصطناعي التوليدي المطوّرة من شركات كبرى قد تقدّم اقتراحات حول مراهنات عبر الإنترنت، وتبيّن أنها في بعض الحالات توجّه المستخدمين نحو كازينوات تعمل خارج نطاق التنظيم، وهو ما يثير مخاوف متزايدة بشأن سلامة استخدام هذه التقنيات.
اختبر فريق من الصحفيين عدة أنظمة ذكاء اصطناعي من شركات مثل OpenAI وجوجل ومايكروسوفت وميتا إضافة إلى روبوت Grok، وخلال الاختبارات طرحوا أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود التنظيمية المفروضة على هذه الأنشطة.
أظهرت النتائج أن بعض برامج الدردشة أقدمت على توفير قوائم بمواقع قمار غير مرخّصة، إضافة إلى معلومات حول كيفية استخدامها، وهو ما يسّلط الضوء على احتمال أن تقود هذه الأنظمة المستخدمين إلى خدمات غير قانونية.
ومن بين أكثر النقاط إثارة للقلق أن بعض روبوتات الدردشة قدّمت إرشادات حول تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة، فمثلاً في المملكة المتحدة يسمح نظام GamStop للأفراد بحظر أنفسهم من مواقع القمار المرخصة، لكن الاختبارات أظهرت أن أدوات الذكاء الاصطناعي اقترحت البحث عن كازينوهات غير مرتبطة بهذا النظام.
كما أشارت النتائج إلى أن بعض الردود روجت لميزات تجذب المقامرين مثل المكافآت الكبيرة، وسرعة سحب الأموال، أو إمكانية استخدام العملات الرقمية، وهي مواصفات تقدمها عادة كازينوهات تعمل خارج نطاق التنظيم.
ردت الشركات المطوّرة على نتائج التحقيق بأنها تعمل باستمرار على تعزيز إجراءات الأمان، وأكدت OpenAI أن نظام ChatGPT مصمَّم لرفض الطلبات التي تسهّل الأنشطة غير القانونية، فيما أشارت Microsoft إلى أن Copilot يحتوي طبقات حماية متعددة لمنع التوصيات الضارة.
وتأتي هذه النتائج في وقت يتزايد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدي، خصوصاً عند مناقشة مواضيع حساسة مثل الصحة النفسية والإدمان أو الأنشطة غير القانونية، وقد حذر منظّمون في المملكة المتحدة من أن منصات الرقميّة، بما فيها تقنيات الذكاء الاصطناعي، يجب أن تبذل جهداً أكبر لمنع انتشار المحتوى الضار وفقاً لقانون السلامة على الإنترنت.
التداعيات التنظيمية وتحديات الاستخدام الآمن
وتؤكد هذه التطورات الحاجة إلى معايير أوسع وشفافية أكبر في كيفية تعامل أنظمة الذكاء الاصطناعي مع موضوعات حساسة، خصوصاً حين تكون الاختيارات مرتبطة بأنشطة تخضع لرقابة وتنظيم صارمين.
وتسري هذه النتائج في سياق تزايد المخاوف من الاعتماد على أدوات الذكاء الاصطناعي في صناعة المحتوى واتخاذ قرارات رقمية تؤثر في سلوك المستخدمين، ما يستلزم متابعة أوسع من الشركات المطوّرة والجهات التنظيمية على حد سواء.



