ذات صلة

اخبار متفرقة

بدلاً من رميه.. طريقة عمل مربى قشر البرتقال بأسهل الخطوات

مقادير مربى قشر البرتقال ابدأ بمقادير مربى قشر البرتقال: 1...

فيروس نيباه يهدد العالم.. تعرف على الأعراض والأسباب

ينتقل فيروس نيباه بين الحيوانات والبشر بشكل رئيسي عبر...

5 أعراض صامتة للكوليسترول وأطعمة تساهم في خفضه

علامات مبكرة لإرتفاع الكوليسترول اعلم أن ارتفاع الكوليسترول غالباً لا...

تحدي التوقف عن السكر لمدة أسبوعين: ماذا يحدث لجسمك خلال ١٤ يوماً؟

البداية: قرار صعب وتجربة جديدة ابدأ الامتناع عن السكر لمدة...

لماذا تشعر فجأة بنشاطٍ كبير في الساعة الحادية عشرة مساءً؟

فهم النَفَس الثاني تظهر هذه الظاهرة عادة قرب الساعة الحادية...

خبراء: يصعّب الذكاء الاصطناعي تحديد المسؤولية في حالة وقوع خطأ طبي

التحديات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في الرعاية الصحية

تعترض الرعاية الصحية تحديات حادة في تحديد المسئولية عند وقوع أخطاء طبية مع ازدياد اعتمادها على أدوات الذكاء الاصطناعي في الممارسة السريرية.

شهد التطور المستمر للذكاء الاصطناعي استخداماته السريرية ازدهارًا واسعًا، حيث ابتكر الباحثون مجموعة من الأدوات بدءًا من خوارزميات تفسر نتائج الفحوصات وتدعم التشخيص، وصولًا إلى أنظمة تسهم في إدارة المستشفيات من ناحية تحسين سعة الأسرة وإدارة سلاسل الإمداد.

غير أن الخبراء يحذرون من وجود مخاطر، منها أن لم يتم اختبار فاعلية كثير من أدوات الذكاء الاصطناعي بشكل كافٍ والشكوك حول من يتحمل المسؤولية عندما يسوء الأمر مع المريض.

يؤكد البروفيسور ديريك أنغوس من جامعة بيتسبرغ أنه من المؤكد أن توجد حالات يُتصور فيها أن حدوث خطأ ما سيُتبع بإسناد اللوم إلى طرف معين، ولن ينصب الاهتمام فقط على طبيعة أدوات الذكاء الاصطناعي ومجالات استخدامها بل سيُدرَس التحدي القانوني المحيط بذلك.

لفت البروفيسور جلين كوهين من كلية الحقوق في جامعة هارفارد إلى أن المرضى قد يواجهون صعوبات في إثبات وجود خلل في استخدام أو تصميم أداة ذكاء اصطناعي، فقد تكون هناك عوائق أمام الوصول إلى آلية العمل الداخلية للأداة، كما قد يصعب اقتراح بديل مقبول أو إثبات أن النظام تسبب في نتيجة سيئة.

كما أن التفاعل بين الأطراف قد يعوق رفع الدعوى القضائية، فربما يشير كل طرف إلى الآخر كالمسؤول، وقد تكون هناك اتفاقات تعاقدية تقسم المسئولية أو دعاوى تعويض، كما أن العديد من أدوات الذكاء الاصطناعي خارج إشراف الجهات التنظيمية مثل FDA.

ويشير الخبراء إلى وجود عوائق حالية في تقييم أدوات الذكاء الاصطناعي تتعلق بالحاجة إلى اختبارها سريريًا لتقييمها بشكل كامل، في حين أن أساليب التقييم الحالية مكلفة ومرهقة.

spot_img
spot_imgspot_img

تابعونا على