يفتتح تطبيق ChatGPT Health تبويبًا مخصّصًا للصحة داخل منصة ChatGPT، حيث يمكن للمستخدمين تحميل سجلاتهم الطبية وربط تطبيقات الصحة والعافية وطرح أسئلة حول الفحوصات وخيارات العلاج. وتؤكد OpenAI أن أكثر من 230 مليون سؤال صحي يُطرح أسبوعيًا، وتهدف الخدمة إلى تنظيم البيانات وحمايتها مع التعهد بعدم استخدام المحادثات الصحية لتدريب النماذج.
توفر المنصة وسيلةً لتحسين الوصول إلى المعلومات الطبية وتفسيرها، وتساعد في التحضير للزيارات السريرية من خلال توضيح المصطلحات واقتراح أسئلة للطبيب، مع التأكيد أن ChatGPT Health ليس أداة تشخيص أو علاج بل مساعدة تكاملية تلزم الاعتماد على التقييم السريري ومصادر موثوقة.
تواجه المخاطر عند استخدام الذكاء الاصطناعي في المجال الصحي تحديات حقيقية، فالنماذج اللغوية لا تحوي الحقيقة الطبية بل تولد نصوصًا تبدو معقولة وقد تحمل أخطاء قد تؤدي إلى ضرر إذا اعتمدها المرضى دون مراجعة الطبيب.
تشير دراسات ومراجعات إلى أن انتشار معلومات طبية مضللة عبر هذه الأنظمة قد يكون سهلًا، مما يستدعي وضع ضوابط ورقابة تنظيمية لضمان سلامة المعلومات وتحديد المسؤوليات في حال حدوث ضرر.
مهمـة الاستخدام الآمن والتوجيه الصحيح
أولًا، يمكن استخدام الذكاء الاصطناعي للفرز والتوضيح وتنظيم السجلات الصحية وتبسيط المصطلحات وتحضير أسئلة للطبيب قبل الزيارة، وهو استخدام تكميلي يحسن تجربة المستخدم ويخفف القلق.
ثانيًا، لا يجوز الاعتماد عليه كبديل عن التقييم السريري، وتؤكد OpenAI أن النصائح التي تقدمها النماذج ليست دقيقة دائمًا، لذا يجب التحقق من المعلومات مع الطبيب وموارد موثوقة.
ثالثًا، تحتاج السياسات والضوابط إلى تنظيم ومراقبة: من المسؤول عن الأذى الناتج عن نصائح الذكاء الاصطناعي، وكيف ستتابع الجهات التنظيمية والرعاية الصحية استخدام هذه الأدوات وتدقيقها لضمان سلامة المرضى.
يظل إطلاق ChatGPT Health علامةً فارقة في تحسين الوصول إلى المعلومات الصحية وتفسيرها والتحضير للزيارات السريرية، لكن الاختبار الحقيقي هو مدى تقليل الضرر مع توسيع الوصول إلى الرعاية وليس مجرد تحقيق انتشار كبير.



