تفاصيل الحادث والتقارير
أفادت تقارير صحفية بأن شابة تبلغ من العمر 18 عاماً يُزعم أنها قتلت ثمانية أشخاص في حادث إطلاق نار جماعي بمدينة تومبلر ريدج الكندية، كما أُشير إلى أنها استخدمت روبوت المحادثة ChatGPT في سياقات سابقة.
بحسب التفاصيل، أقامت جيسي فان روتسيلار محادثات عبر ChatGPT وصفت فيها مشاهد عنف باستخدام الأسلحة النارية، ما دفع أنظمة المراقبة الداخلية في OpenAI إلى وسم الحساب وتحذيره، ثم حُظِر الحساب في يونيو 2025 بعد اكتشاف تلك الأنشطة.
نقاش داخلي وإبلاغ السلطات
نوقش داخل OpenAI ما إذا كان يجب الإبلاغ عن طبيعة تلك المحادثات لجهات إنفاذ القانون الكندية، إلا أن الشركة اختارت عدم الإبلاغ في ذلك الوقت، وأوضح المتحدث أن نشاط المتهمة لم يستوفِ المعايير المعتمدة للإبلاغ، لكنه أشار إلى أن الشركة تواصلت مع الجهات الكندية المعنية بعد وقوع الحادث.
وأشار المتحدث إلى أن الشركة قالت: “قلوبنا مع جميع المتضررين من مأساة تومبلر ريدج، لقد بادرتنا بالتواصل مع الشرطة الملكية الكندية وتقديم معلومات تتعلق بالشخص واستخدامه لـ ChatGPT، وسنواصل دعم التحقيق الجاري”.
التواصل مع الشرطة الملكية الكندية ودعم التحقيق
أكدت الشركة أنها زودت Royal Canadian Mounted Police بالمعلومات المتاحة لديها بشأن استخدام المتهمة للمنصة، في إطار دعم التحقيقات الرسمية، وذلك في سياق ضغوط متزايدة على شركات الذكاء الاصطناعي لتوضيح سياساتها حول المحتوى العنيف أو المقلق الذي ينشره المستخدمون.
نشاط رقمي مقلق خارج CHATGPT
لم تكن محادثات ChatGPT الجانب الوحيد المثير للقلق في السجل الرقمي للمستخدمة؛ فقد أشارت التقارير إلى أنها أنشأت لعبة عبر Roblox تحاكي حادث إطلاق نار في مركز تجاري، كما نشرت محتوى متعلقاً بالأسلحة عبر Reddit، وهو ما يعكس اهتماماً متكرراً بمواضيع العنف قبل وقوع الجريمة.
سجل سابق وتداعياته
كما أُشير إلى أن الشرطة كانت على علم بسجلها السابق، حيث استُدعيت الشرطة إلى منزل العائلة في وقت سابق إثر إشعال حريق أثناء وجودها تحت تأثير مخدرات غير محددة، وهذا السجل أثار تساؤلات حول الإشارات التحذيرية وإمكانية التدخل المبكر لمنع المأساة.
التحديات والقضايا المحيطة بالذكاء الاصطناعي
في إطار أوسع، تواجه روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة انتقادات تتهمها بإسهامها في تفاقم حالات نفسية لبعض المستخدمين، وتُرفع دعاوى قضائية استناداً إلى نصوص محادثات تُزعم أنها شجعت أشخاصاً على إيذاء أنفسهم أو قدمت إرشادات حول الانتحار، وهو ما يعيد فتح النقاش حول مسؤولية شركات الذكاء الاصطناعي وحدود تدخلها.
تنبيه للمساعدة والدعم
تنبيه بشأن الأزمات النفسية: إذا كنت تمر بأزمة نفسية أو تفكر في الانتحار، يمكنك الاتصال بالخط 988 في الولايات المتحدة للوصول إلى خط دعم الأزمات والانتحار (988 Suicide and Crisis Lifeline).



