أظهر تقرير رسمي صادر عن المعهد الأمني للذكاء الاصطناعي (AISI) أن نحو ثلث سكان المملكة المتحدة استخدموا أنظمة الذكاء الاصطناعي للحصول على دعم عاطفي أو شعور بالرفقة أو التفاعل الاجتماعي كإشارة إلى تغير علاقة البشر بالتكنولوجيا.
أوضح أن الاستخدام الأسبوعي لأغراض عاطفية يشمل حوالي واحداً من كل عشرة أشخاص يستخدمون أدوات الذكاء الاصطناعي بشكل أسبوعي، بينما يتفاعل نحو 4% يومياً مع هذه الأنظمة مثل برامج الدردشة الذكية والمساعدات الصوتية.
أشار المعهد إلى وجود حالات ضرر مقلقة، داعياً إلى توسيع نطاق الأبحاث لفهم متى وكيف قد يتحول هذا الاستخدام إلى خطر، وما الضمانات اللازمة لجعل الذكاء الاصطناعي أداة مساعدة لا بديل ضار للعلاقات البشرية.
اعتمدت المساعدات العامة مثل ChatGPT كأداة الدعم العاطفي الأكثر استخداماً بنسبة تقارب 60%، تلتها المساعدات الصوتية مثل Alexa.
سلّط التقرير الضوء على مجتمعات رقمية، مثل منتديات مستخدمي CharacterAI، حيث لوحظ ازدياد منشورات القلق والتوتر عند تعطل الخدمة، ما يشير إلى اعتماد نفسي متزايد على هذه المنصات.
حذر من أن بعض نماذج الذكاء الاصطناعي القوية قادرة على التأثير في الآراء السياسية للمستخدمين، مع ملاحظة أن النماذج الأكثر إقناعاً قد تقدم أحياناً معلومات غير دقيقة بكميات كبيرة.
أشار التقرير إلى أن أداء النماذج المتقدمة يتضاعف كل نحو ثمانية أشهر، وأصبحت قادرة على تنفيذ مهام بمستوى متدرب بشري بنسبة 50%، بل وتتجاوز خبراء متخصصين في مجالات علمية معقدة.
يصف المعهد وتيرة التطور بأنها استثنائية، معتبرًا أن الوصول إلى الذكاء الاصطناعي العام (AGI) القادر على أداء معظم المهام الفكرية البشرية أصبح احتمالاً واقعياً خلال السنوات القادمة.
تفتح هذه التقنيات آفاقاً جديدة للدعم والتفاعل، وتُحذر الحكومة من الاعتماد العاطفي المفرط، وتؤكد أن المرحلة المقبلة تتطلب توازناً دقيقاً بين الاستفادة من هذه التقنيات وحماية الصحة النفسية والمجتمعية.



