تحول السؤال عما إذا كانت الخوارزمية تعرف عنك أكثر مما تعرفه أنت عن نفسك إلى واقع يفرض نفسه في المختبرات وغرف الاجتماعات، حيث لم يعد الذكاء الاصطناعي يكتفي بجمع البيانات السطحية بل صار يغوص في الطبقات الأعمق من الذات الإنسانية محاولاً سبر أغوار المشاعر والدوافع وربما الأفكار ذاتها.
تجاوز الذكاء الاصطناعي جمع البيانات السطحية ليغوص في الطبقات الأعمق من الذات الإنسانية، محاولاً سبر أغوار المشاعر والدوافع وربما الأفكار ذاتها.
أصبح مفهوم الخصوصية أوسع من مجرد الصور والبيانات، فالخوارزميات لا تكتفي بجمع ما نصرّح به بل تسعى لفهم ما لا نبوح به كمشاعرنا ودوافـعنا ومزاجنا الداخلي.
حدود جديدة للخصوصية في عصر الذكاء الاصطناعي
تتسع تقنيات تحليل المشاعر لتشمل كاميرات ذكاء اصطناعي وواجهات استخدام تقيس تعابير الوجه ونطاقات العين ونبرة الصوت وإيقاع التنفس لتقدير الحالة العاطفية للمستخدم أو العامل أو الطالب في الفصل الدراسي.
تشير تقارير من Electronic Frontier Foundation (EFF) إلى أن هذه الأنظمة تُستخدم في قطاعات الموارد البشرية والتعليم والتسويق وحتى في الأنظمة الأمنية لتقييم الأشخاص بناءً على حالتهم النفسية اللحظية، وليس سلوكهم الفعلي أو مؤهلاتهم.
الذكاء الاصطناعي يتحكم في قبولك الوظيفي
فرضت شركات مثل HireVue استخدام خوارزميات لتحليل تعابير وجه المتقدمين للوظائف أثناء المقابلات المسجلة لتقدير مدى الحماس أو الصدق أو القدرات القيادية لديهم، وهو ما أثار جدلاً واسعاً وأدى لاحقاً إلى تقليص الاعتماد على التقنية.
انتشرت في الصين تقارير عن استخدام برامج تحليل المشاعر في المدارس لقياس انتباه التلاميذ أثناء الحصص عبر تتبّع نظراتهم وتعبيراتهم، ما أثار موجة انتقادات واسعة بدعوى انتهاك الخصوصية وتحويل العملية التعليمية إلى تجربة مراقبة كاملة.
من تحليل البيانات إلى قراءة العقول
اتجهت المحاولات التالية من رصد السلوك إلى فهم الفكر ذاته، ففي عام 2023 أعلن باحثون من جامعة تكساس في أوستن عن تطوير نموذج ذكاء اصطناعي قادر على فك تشفير الأفكار البشرية من إشارات الدماغ وتحويلها إلى جمل باستخدام ما يُعرف بالمحللات الدلالية وتصوير الدماغ الوظيفي (fMRI).
طوّر باحثون من جامعة أوساكا في اليابان نظاماً يستخدم الذكاء الاصطناعي لتوليد صور مطابقة لما يراه الشخص بناءً على أنماط نشاط دماغه، وهي خطوة رافقتها تقارير عن تقدم شركات مثل Neuralink في زرع رقائق دماغية تسمح بالتواصل المباشر بين الدماغ والحاسوب.
الأطر القانونية والأخلاقية
تبنى الاتحاد الأوروبي قانون الذكاء الاصطناعي في عام 2024 كأول إطار تشريعي من نوعه يصنّف تطبيقات AI إلى أربع فئات وفق درجة الخطورة، ويجرم استخدام أنظمة المراقبة العاطفية أو الذهنية التي قد تؤدي إلى التلاعب بالنفس أو بالآخرين.
ويضمان القانون توفير شفافية كاملة حول كيفية تدريب النماذج ومصادر البيانات وإمكانية تفسير قرارات الخوارزميات في مجالات مثل التوظيف والائتمان والرعاية الصحية.
وتفرض الأحكام غرامات ضخمة تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية على الشركات المخالفة، في سياق جهود ترسيخ مفهوم الذكاء الاصطناعي الموثوق القائم على القيم والشفافية.
