التحديات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في الرعاية الصحية
تعترض الرعاية الصحية تحديات حادة في تحديد المسئولية عند وقوع أخطاء طبية مع ازدياد اعتمادها على أدوات الذكاء الاصطناعي في الممارسة السريرية.
شهد التطور المستمر للذكاء الاصطناعي استخداماته السريرية ازدهارًا واسعًا، حيث ابتكر الباحثون مجموعة من الأدوات بدءًا من خوارزميات تفسر نتائج الفحوصات وتدعم التشخيص، وصولًا إلى أنظمة تسهم في إدارة المستشفيات من ناحية تحسين سعة الأسرة وإدارة سلاسل الإمداد.
غير أن الخبراء يحذرون من وجود مخاطر، منها أن لم يتم اختبار فاعلية كثير من أدوات الذكاء الاصطناعي بشكل كافٍ والشكوك حول من يتحمل المسؤولية عندما يسوء الأمر مع المريض.
يؤكد البروفيسور ديريك أنغوس من جامعة بيتسبرغ أنه من المؤكد أن توجد حالات يُتصور فيها أن حدوث خطأ ما سيُتبع بإسناد اللوم إلى طرف معين، ولن ينصب الاهتمام فقط على طبيعة أدوات الذكاء الاصطناعي ومجالات استخدامها بل سيُدرَس التحدي القانوني المحيط بذلك.
لفت البروفيسور جلين كوهين من كلية الحقوق في جامعة هارفارد إلى أن المرضى قد يواجهون صعوبات في إثبات وجود خلل في استخدام أو تصميم أداة ذكاء اصطناعي، فقد تكون هناك عوائق أمام الوصول إلى آلية العمل الداخلية للأداة، كما قد يصعب اقتراح بديل مقبول أو إثبات أن النظام تسبب في نتيجة سيئة.
كما أن التفاعل بين الأطراف قد يعوق رفع الدعوى القضائية، فربما يشير كل طرف إلى الآخر كالمسؤول، وقد تكون هناك اتفاقات تعاقدية تقسم المسئولية أو دعاوى تعويض، كما أن العديد من أدوات الذكاء الاصطناعي خارج إشراف الجهات التنظيمية مثل FDA.
ويشير الخبراء إلى وجود عوائق حالية في تقييم أدوات الذكاء الاصطناعي تتعلق بالحاجة إلى اختبارها سريريًا لتقييمها بشكل كامل، في حين أن أساليب التقييم الحالية مكلفة ومرهقة.



