اتساع الجدل حول استخدام ChatGPT في جرائم القتل
كشفَت تقارير صحفية أن شاباً يبلغ من العمر 18 عاماً يُزعم أنه قتل ثمانية أشخاص في حادث إطلاق نار جماعي بمدينة تومبلر ريدج في كندا، وكان قد استخدم روبوت الدردشة ChatGPT أثناء نشاطه الرقمي قبل وقوع الحادث.
وذكرت المصادر أن الأنشطة على المنصة ارتبطت بمشاهد عنف باستخدام الأسلحة النارية، ما دفع أنظمة المراقبة الداخلية في OpenAI إلى وضع تحذير على الحساب وحظره في يونيو 2025 بعد اكتشاف تلك الأعمال.
تقرير عن نقاش داخلي في OpenAI حول الإبلاغ
بحسب ما أوردته The Wall Street Journal، دار نقاش داخل OpenAI حول ما إذا كان ينبغي التواصل مع جهات إنفاذ القانون الكندية بشأن طبيعة تلك المحادثات، إلا أن الشركة قررت في نهاية المطاف عدم الإبلاغ في ذلك الوقت، وأوضح متحدث باسمها أن نشاط فان روتسيلار لم يستوفِ المعايير المعتمدة للإبلاغ، لكنه أشار إلى أن الشركة تواصلت مع السلطات الكندية المختصة بعد وقوع الحادث.
قال المتحدث في بيان: “قلوبنا مع جميع المتضررين من مأساة تومبلر ريدج، لقد بادرنا بالتواصل مع الشرطة الملكية الكندية وقدمنا معلومات تتعلق بالفرد واستخدامه لـ ChatGPT، وسنواصل دعم التحقيق الجاري”.
التعاون مع الشرطة الملكية الكندية
أكدت الشركة أنها زودت Royal Canadian Mounted Police بالمعلومات المتاحة لديها بشأن استخدام المتهمة للمنصة، في إطار دعم التحقيقات الرسمية، وتأتي هذه التطورات في ظل ضغوط متزايدة على شركات الذكاء الاصطناعي لتوضيح سياساتها بشأن المحتوى العنيف أو المقلق الذي ينشره المستخدمون.
نشاط رقمي مقلق خارج ChatGPT
لم تكن محادثات ChatGPT الجانب الوحيد المقلق في السجل الرقمي لفان روتسيلار، إذ أشارت التقارير إلى أنها أنشأت لعبة على Roblox تضمنت محاكاة لحادث إطلاق نار في مركز تجاري، كما نشرت محتوى متعلقاً بالأسلحة على منصة Reddit، ما يعكس اهتماماً متكررًا بهذا النوع من المواضيع قبل وقوع الجريمة.
سجل سابق مع الشرطة
وُضِع في الاعتبار أيضاً أن الشرطة المحلية كانت على علم بسجل المتهمة، إذ استُدعيت إلى منزل عائلتها في وقت سابق إثر حريق اندلع أثناء وجودها تحت تأثير مواد مخدرة، وهو ما أثار تساؤلات حول المؤشرات التحذيرية والإمكانات المتاحة للتدخل المبكر لمنع المأساة.
اتهامات موجهة إلى روبوتات الذكاء الاصطناعي
على صعيد أوسع، تواجه روبوتات الدردشة التي تعتمد نماذج اللغة العالية انتقادات بسبب احتمال مساهمتها في تفاقم مشاكل نفسية لبعض المستخدمين، مع رفع دعاوى قضائية تعتمد نصوص محادثات زُعم أنها وجهت أشخاصاً لإيذاء أنفسهم أو قدّمت لهم إرشادات حول الانتحار، وهو ما يعيد الجدل حول مسؤولية شركات الذكاء الاصطناعي وحدود تدخلها.
تنبيه: إذا كنت تمر بأزمة نفسية أو تفكر في إيذاء نفسك، اتصل أو أرسل رسالة إلى الرقم 988 للوصول إلى خط دعم الأزمات والانتحار في الولايات المتحدة.



