تقدّم ChatGPT Health تبويباً مخصصاً للصحة
تقدّم OpenAI في ChatGPT Health تبويباً مخصصاً للصحة داخل منصة ChatGPT يتيح للمستخدمين تحميل سجلاتهم الطبية وربط تطبيقات الصحة والعافية، إضافة إلى إمكانية طرح أسئلة حول الفحوص وخيارات العلاج.
تشير الإحصاءات إلى أن أعداداً كبيرة من المستخدمين يطرحون نحو 230 مليون سؤال صحي أسبوعياً، وهو ما يعكس حاجة ملحة لإدارة البيانات وحمايتها مع الالتزام بعدم استخدام المحادثات الصحية لتدريب النماذج.
يهدف ChatGPT Health إلى تنظيم هذه البيانات وحمايتها مع توفير وسائل للتحكم في مشاركة المعلومات وتقديم إرشادات ضمن حدود دور النظام، مع الإشارة إلى أن النماذج اللغوية لا تعرف الحقيقة الطبية بشكل مطلق بل تولّد نصوصاً قد تبدو مقنعة لكنها قد تحمل أخطاء تسمّى أحياناً الهلوسة.
أظهرت دراسات أن أنظمة الذكاء الاصطناعي قد تكرّر معلومات طبية مضللة بسهولة، وهو ما يستدعي وجود ضوابط وتنظيمات إضافية لضمان السلامة والموثوقية.
كيف نستفيد من هذه التقنية بأمان؟
أولاً، يمكن أن تكون أداة فعالة في فرز وتفسير المصطلحات الطبية، واقتراح أسئلة للمريض لطرحها على الطبيب، إضافةً إلى مساعدة في تنظيم السجلات الصحية والتجهيز للمواعيد الطبية، كما قد تظهر بنبرة أكثر تعاطفاً من بعض التفاعلات السريرية.
ثانياً، لا يغني هذا المنتج عن التقييم السريري عند الطبيب، وتؤكد OpenAI أن المنتج ليس مخصصاً للتشخيص أو العلاج، كما يحذر الأطباء من أن نصائح الذكاء الاصطناعي غير الدقيقة قد تؤخر الرعاية أو تضلل المرضى.
في الاستخدام الأمثل حالياً، يعدّ أداة تكميليّة: يستخدم لتوفير توضيحات وتحضير لما قبل الزيارة الطبية، مع ضرورة الاعتماد على الأطباء ومصادر موثوقة عند اتخاذ قرارات مهمة.
التحديات والاعتبارات التنظيمية
يطرح إطلاق هذه التقنية أسئلة حول المسؤولية في حال وقوع ضرر نتيجة نصائح الذكاء الاصطناعي، وكيف ستدمج الجهات التنظيمية وأنظمة الرعاية الصحية هذه الأدوات وتراقبها لضمان الخصوصية والسلامة على المدى الطويل.
إن إطلاق ChatGPT Health يمثل علامة فارقة، لكن الاختبار الحقيقي يقيس مدى تقليل الضرر مع توسيع الوصول إلى معلومات صحية آمنة وموثوقة، وليس فقط مدى شعبيته واستخدامه كأداة استفسار عامة.



