ذات صلة

اخبار متفرقة

برج العذراء.. حظك اليوم الأربعاء 11 مارس 2026: زيادة في الراتب

يميل برج العذراء إلى الجلوس مع الآباء لسماع النصائح...

برج الميزان.. توقعاتك اليوم الأربعاء 11 مارس 2026

يحتفل مواليد برج الميزان من 24 سبتمبر إلى 23...

برج العقرب.. حظك اليوم الأربعاء 11 مارس: السعي وراء عروض أفضل

يتسم برج العقرب، كأحد الأبراج المائية، بصفات أبرزها الشك...

البطاطس بريئة من زيادة الوزن، ويؤكد الخبراء أن طريقة طهوها هي السبب في الكرش

يؤكد خبراء التغذية أن الانتقاد المطلق للكربوهيدرات ليس دقيقاً،...

مسلسل أب، ولكن.. أضرار نفسية غير متوقعة نتيجة إساءة معاملة الطفل

تشهد الحلقة الرابعة من مسلسل أب ولكن تطورات في...

تحقيق يكشف: روبوتات الذكاء الاصطناعي توجه المستخدمين إلى مواقع غير قانونية

نتائج التحقيق وتداعياتها

أظهرت نتائج الاختبارات التي أجرتها The Guardian بالتعاون مع Investigate Europe أن بعض روبوتات المحادثة التي تعتمد على تقنيات الذكاء الاصطناعي، من بينها أنظمة مطوّرة من OpenAI وGoogle وMicrosoft وMeta إضافة إلى روبوت Grok، قد تقترح مواقع قمار عبر الإنترنت غير مرخّصة وتزوّد المستخدمين بمعلومات حول كيفية استخدامها، وهو ما يثير مخاوف بشأن سلامة الاعتماد على تقنيات الذكاء الاصطناعي في هذا السياق.

اختبر فريق التحقيق عدة أنظمة ذكاء اصطناعي تطورتها شركات كبرى، مثل OpenAI وGoogle وMicrosoft وMeta إضافة إلى Grok، وطرح الصحفيون أسئلة تتعلق بالمراهنات عبر الإنترنت والقيود التنظيمية المفروضة على المقامرة.

أظهرت النتائج أن بعض هذه البرامج قدّمت قوائم لمواقع قمار غير مرخّصة ووفّرت معلومات حول طريقة استخدامها، وهو ما يثير القلق بشأن احتمال توجيه المستخدمين إلى خدمات غير قانونية.

من بين الجوانب الأكثر إثارة للقلق أن بعض روبوتات المحادثة قدّمت إرشادات حول تجاوز أنظمة الحماية الخاصة بالمقامرة المسؤولة؛ ففي المملكة المتحدة، يسمح GamStop للأشخاص بحظر أنفسهم من مواقع القمار المرخصة، إلا أن الاختبارات أظهرت أن أدوات الذكاء الاصطناعي اقترحت البحث عن كازينوهات غير مرتبطة بهذا النظام.

كما أشارت النتائج إلى أن بعض الردود أبرزت ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة سحب الأرباح وإمكانية استخدام العملات الرقمية، وهي خصائص عادةً ما تقدمها كازينوهات تقع خارج الإشراف التنظيمي.

وردت الشركات المطوّرة على النتائج مؤكّدة أنها تعمل باستمرار على تعزيز إجراءات الأمن، وأكّدت OpenAI أن نظام ChatGPT مصمَّم لرفض الطلبات التي تسهّل أنشطة غير قانونية، في حين أكّدت مايكروسوفت أن Copilot يحتوي على طبقات حماية متعددة لمنع التوصيات الضارة.

وتأتي هذه النتائج في سياق تزايد التدقيق في أنظمة الذكاء الاصطناعي التوليدي، خصوصًا عند التعامل مع مواضيع حساسة مثل الصحة النفسية والإدمان أو الأنشطة غير القانونية، وحيّدت المنظّمات في المملكة المتحدة بأن المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، يجب أن تبذل جهود أكبر لمنع المحتوى الضار بموجب قانون السلامة على الإنترنت.

وتبرز هذه التطورات الحاجة إلى تعزيز الضمانات والرقابة لحماية المستخدمين من توجيهات قد تقود إلى نشاطات غير قانونية أو ممارسات مضرة.

spot_img
spot_imgspot_img

تابعونا على