أطلقت OpenAI نسخة جديدة من روبوت الدردشة المخصص للصحة باسم ChatGPT Health، وهو قادر على تحليل سجلات المستخدمين الطبية وبيانات تطبيقات الصحة والأجهزة القابلة للارتداء لتقديم إجابات حول الأسئلة الصحية والطبية.
التوفر والخصوصية
يتوفر البرنامج حالياً عبر قائمة انتظار، بينما يقدم منافس Anthropic نموذجاً مشابهاً لبعض مستخدمي روبوت Claude، وهو يساعد في تلخيص نتائج الفحوصات المعقدة والتحضير لزيارة الطبيب وتحليل الاتجاهات الصحية المخزنة في السجلات الطبية وبيانات التطبيقات، ولكنه لا يحل مكان الرعاية الطبية المتخصصة ولا يُستخدم لتشخيص الحالات.
وتوفر الدردشة إجابات مرتبطة بالسياق الطبي للمستخدم، بما يشمل الأدوية الموصوفة والعمر وملاحظات الطبيب، ما يجعل المعلومات أكثر تخصيصاً مقارنة بالبحث على الإنترنت، وحتى لو لم يمنح الروبوت الوصول إلى سجلك الطبي، يوصى بتقديم أقصى قدر من التفاصيل لتحسين دقة الإجابة.
لا تعتمد على الروبوت في الحالات الطارئة مثل ضيق التنفس أو ألم الصدر أو الصداع الشديد، واطلب الرعاية الطبية فوراً، وكذلك في الحالات الأقل خطورة يجب التعامل مع هذه البرامج بحذر وعدم الاعتماد الكلي على المعلومات المستخلصة لاتخاذ قرارات صحية مهمة.
الخصوصية والبيانات
تشير المصادر إلى أن البيانات الصحية التي تُعالجها هذه البرامج لا تخضع عادة لقوانين HIPAA التي تحمي السجلات الطبية، لكنها لا تشمل شركات تطوير الروبوتات. ومع ذلك، تحتفظ OpenAI وAnthropic بالبيانات الصحية بشكل منفصل عن البيانات الأخرى وتخضع لحماية إضافية، ولا تُستخدم لتدريب النماذج، ويختار المستخدم الاشتراك طوعاً ويمكنه الانسحاب في أي وقت.
وتظهر الدراسات المبكرة أن روبوتات الذكاء الاصطناعي قد تتفوّق في الامتحانات الطبية، لكنها غالباً ما تواجه صعوبات في التفاعل مع المستخدمين البشر. ولزيادة موثوقية النتائج، يُنصح بمقارنة النتائج من أكثر من روبوت كنوع من رأي طبي ثانٍ قبل اتخاذ أي قرار صحي.
ينبغي أيضاً مشاركة المعلومات الصحية بمسؤولية للحصول على أفضل تجربة، مع تذكير بأن هذه البيانات لا تخضع عادة للقوانين الفيدرالية الخاصة بالسجلات الطبية، لكنها تخضع لحماية إضافية من قبل مزودي الخدمة والجهات المطوّرة، ويجب على المستخدم أن يكون واعياً لخصوصيته وأن يختار مشاركة المعلومات بما يتناسب مع تفضيلاته.



