تزايدت المخاوف بشأن مدى اختراق تطبيقات الذكاء الاصطناعي لخصوصية المستخدمين، مع التركيز على ChatGPT بوصفه أبرزها في نقاشات حول البيانات وكيفية استخدامها.
تشير تقارير الأمن السيبراني إلى أن سياسة الخصوصية الخاصة بتطبيق ChatGPT تستند إلى جمع البيانات من ثلاث مصادر رئيسية، تشكل الأساس لفهم نمط التعامل مع المعلومات. وتشمل المصدر الأول معلومات الحساب التي يدخلها المستخدم عند إنشاء الحساب أو الاشتراك في خدمة، مثل الاسم وبيانات الاتصال وبيانات الاعتماد والدفع. وتتعلق البيانات التعريفية بالمعلومات التي يمكن استخلاصها من الجهاز أو المتصفح، مثل عنوان IP والموقع الجغرافي وبيانات الاستخدام ونوع الجهاز. وتضم محتوى المحادثات النصوص التي يدخلها المستخدم والملفات التي يرفعها أو التعليقات التي يقدمها، وهي مواد قد تُستخدم أحيانًا في تدريب نماذج الذكاء الاصطناعي بعد مراجعتها من قِبل مدربين بشريين.
وتؤكد التقارير أن شركة OpenAI تشارك بعض هذه البيانات مع مقدمي الخدمات والبائعين والشركات التابعة لأغراض تشغيلية وتجارية، مع التأكيد على أن البيانات تُحتفظ بها لفترة محدودة.
تشير الدلائل إلى أن تحميل تطبيق ChatGPT على الهواتف الذكية يتطلب منح أذونات عدة، أبرزها الوصول إلى الميكروفون والكاميرا، وهو ما يمثل تهديدًا محتملاً للخصوصية. وتُنصح المستخدمين دائمًا بإلغاء الأذونات فور انتهاء الاستخدام، كما ورد في دليل الاستخدام الذي يؤكد تعطيل الوصول إلى الكاميرا والميكروفون بعد الاستخدام.
يظل الإطار القانوني لحماية بيانات المستخدمين محدوداً أمام التطور السريع للنماذج الذكاء الاصطناعي، فبينما أتحت القوانين بعض الحقوق للمستخدمين مثل حماية سرية البيانات وحق النسيان الرقمي، تظل الإجراءات القانونية غير كافية لتعويض مخاطر الاختراق والاحتياطات اللازمة في التطبيق الفعلي لدى المطورين والشركات المعنية.



