ذات صلة

اخبار متفرقة

ليس الكسل ولا الانعزال.. ما هي سيكولوجية الأشخاص الذين يحبون البقاء في المنزل؟

فهم سيكولوجية محبي البقاء في المنزل يعرف هؤلاء الأشخاص أن...

في عيد ميلادها الثالث والثلاثين.. إطلالات تكشف عن أناقة ملك قورة

يصادف اليوم 11 يناير عيد ميلاد الفنانة الشابة ملك...

بعد غيابها 40 يوماً، سكان مورمانسك يحتفلون بأول شروق للشمس

احتفال شروق الشمس في مورمانسك تشهد مورمانسك في أقصى شمال...

ثماني حالات مرضية يمكن أن يكشف عنها تنفّسك

تظهر رائحة النفس كمرآة دقيقة تعكس ما يجري داخل...

دراسة توضّح السبب وراء مساهمة مضغ العلكة في تعزيز التركيز وتخفيف التوتر؟

تشير مراجعة علمية حديثة إلى أن مضغ العلكة يحفز...

الجارديان: جوجل تزيل بعض ملخصات الذكاء الاصطناعي وتقدم معلومات صحية خاطئة

إزالة ملخصات الذكاء الاصطناعي الصحية وتداعياتها

أزالت جوجل ملخصات الذكاء الاصطناعي الصحية التي تقدم لمحات سريعة عن معلومات صحية من نتائج البحث، وذلك بعدما كشفت الجارديان أن بعض هذه الملخصات في أعلى نتائج البحث تحتوي على معلومات مضللة وتعرّض المستخدمين للخطر.

قالت جوجل إن ملخصات الذكاء الاصطناعي التي تستخدم الذكاء الاصطناعي التوليدي تهدف إلى أن تكون مفيدة وموثوقة، لكنها أكدت أن التحقيق أظهر أن بعض هذه الملخصات قد تكون غير دقيقة وتعرض المستخدمين للضرر.

وفي حالة وصفت بأنها خطيرة ومقلقة، أوردت تقارير أن جوجل قدمت معلومات خاطئة عن اختبارات وظائف الكبد الأساسية اللازمة لتقييم صحة الكبد، وهو أمر قد يجعل المصابين بأمراض الكبد يصابون بمطمئنة غير صحيحة حول صحتهم.

وجدت الجارديان أن كتابة عبارة مثل “ما هو النطاق الطبيعي لاختبارات الدم للكبد” أدت إلى ظهور كميات هائلة من الأرقام مع سياق محدود، ودون مراعاة اختلاف جنسية المرضى أو جنسهم أو عرقهم أو أعمارهم.

أشار خبراء إلى أن ما قدمته مراجعات الذكاء الاصطناعي من جوجل كأنه “طبيعي” قد يختلف جذريًا عن الواقع، ما قد يدفع المرضى المصابين بأمراض خطيرة إلى الاعتقاد بأن نتائج فحوصاتهم طبيعية وعدم الالتزام بالمتابعة الطبية اللازمة.

بعد التحقيق، أكدت جوجل إزالة ملخصات الذكاء الاصطناعي لعبارات البحث “ما هو النطاق الطبيعي لاختبارات الدم للكبد” و”ما هو النطاق الطبيعي لاختبارات وظائف الكبد”.

قال متحدث باسم جوجل: “لا نعلق على عمليات الحذف الفردية داخل البحث، وفي الحالات التي تفتقد فيها مراجعات الذكاء الاصطناعي بعض السياق، نعمل على تحسينات شاملة ونتخذ إجراءات بموجب سياساتنا عند الاقتضاء”.

قالت فانيـسا هيبديتش، مديرة الاتصالات والسياسات في مؤسسة British Liver Trust الخيرية المعنية بصحة الكبد: “هذه أخبار ممتازة، ويسعدنا رؤية إزالة Google AI Overviews في هذه الحالات”، وأضافت أن “إذا طُرح السؤال بشكل مختلف، فقد تظهر نظرة عامة مضللة محتملة عن الذكاء الاصطناعي، وما زلنا نشعر بالقلق من أن معلومات صحية أخرى ينتجها الذكاء الاصطناعي قد تكون غير دقيقة ومربكة”.

وجدت الجارديان أن كتابة عبارات مشابهة لاستفسارات المستخدمين، مثل “نطاق مرجعي لاختبار LFT” أو “نطاق مرجعي لاختبار LFT”، تؤدي إلى ظهور نتائج ملخصة للذكاء الاصطناعي، وهو ما تراه هيبديتش مصدر قلق كبير، مشيرة إلى أن اختبارات وظائف الكبد تتكون من مجموعة من تحاليل الدم المختلفة وأن فهم النتائج وما يعنيه ذلك يتطلب سياق أوسع من مجرد مقارنة أرقام.

وأوضحت أن خدمة ملخص الذكاء الاصطناعي تعرض قائمة بالاختبارات بشكل بارز، ما يجعل القارئ يظن أن هذه الأرقام هي القيم الصحيحة له، رغم أنها قد لا تكون كذلك، كما أن الملخص لا يحذر من احتمال وجود نتائج طبيعية لشخص يعاني مرضًا كبديًا خطير ويتطلب متابعة طبية إضافية، وهو تطمين قد يكون ضارًا جدًا.

spot_img
spot_imgspot_img

تابعونا على