كشف المعهد الأمني للذكاء الاصطناعي التابع للحكومة البريطانية (AISI) أن نحو ثلث سكان المملكة المتحدة استخدموا أنظمة الذكاء الاصطناعي للحصول على دعم عاطفي أو شعور بالرفقة والتفاعل الاجتماعي، وهو مؤشر على تغير علاقة البشر بالتكنولوجيا.
الاستخدام العاطفي عبر الذكاء الاصطناعي
تشير البيانات إلى أن واحدًا من بين كل عشرة أشخاص يستخدم أدوات الذكاء الاصطناعي لأغراض عاطفية بشكل أسبوعي، بينما يتفاعل حوالي 4% يوميًا مع هذه الأنظمة مثل برامج الدردشة الذكية والمساعدات الصوتية.
المخاطر ونداءات البحث العاجل
وعلى الرغم من وجود تجارب إيجابية، شدد المعهد على وجود حالات ضرر مقلقة، ودعا إلى توسيع البحث لفهم متى وكيف قد يتحول هذا الاستخدام إلى خطر، وما الضمانات المطلوبة لجعل الذكاء الاصطناعي أداة مساعدة لا بديلٍ ضار للعلاقات البشرية.
CHATGPT في الصدارة
أشار التقرير إلى أن المساعدات العامة مثل ChatGPT كانت الأكثر استخدامًا للدعم العاطفي بنسبة تقارب 60%، تليها المساعدات الصوتية مثل Alexa.
الاعتماد العاطفي وأعراض الانسحاب
سلّط التقرير الضوء على مجتمعات رقمية مثل منتديات مستخدمي CharacterAI، حيث لوحظ ارتفاع القلق والتوتر عند تعطل الخدمة، ما يشير إلى اعتماد نفسي متزايد على هذه المنصات.
التأثير السياسي والقدرات المتزايدة
حذر المعهد من أن بعض نماذج الذكاء الاصطناعي القوية قد تؤثر في الآراء السياسية للمستخدمين، مع ملاحظة أن النماذج الأكثر إقناعاً قد تقدم أحياناً معلومات غير دقيقة بشكل كبير. كما كشف التقرير أن أداء النماذج المتقدمة يتضاعف كل ثمانية أشهر، وأنها أصبحت قادرة على تنفيذ مهام بمستوى متدرّب بشري بنسبة 50%، بل وتتجاوز في بعض الأحيان خبراء متخصصين في مجالات علمية معقدة.
نحو الذكاء الاصطناعي العام
وصف المعهد وتيرة التطور بأنها استثنائية، معتبرًا أن الوصول إلى الذكاء الاصطناعي العام القادر على أداء معظم المهام الفكرية البشرية أصبح احتمالاً واقعياً خلال السنوات المقبلة.
خلاصة وتوجيهات حكومية
بينما يفتح الذكاء الاصطناعي آفاقاً جديدة للدعم والتفاعل، تحذر الحكومة من الاعتماد العاطفي المفرط، مؤكدة أن المرحلة المقبلة تتطلب توازنًا دقيقًا بين الاستفادة من هذه التقنيات وحماية الصحة النفسية والمجتمعية.



