ذات صلة

اخبار متفرقة

ليس الكسل ولا الانعزال.. ما هي سيكولوجية الأشخاص الذين يحبون البقاء في المنزل؟

فهم سيكولوجية محبي البقاء في المنزل يعرف هؤلاء الأشخاص أن...

في عيد ميلادها الثالث والثلاثين.. إطلالات تكشف عن أناقة ملك قورة

يصادف اليوم 11 يناير عيد ميلاد الفنانة الشابة ملك...

بعد غيابها 40 يوماً، سكان مورمانسك يحتفلون بأول شروق للشمس

احتفال شروق الشمس في مورمانسك تشهد مورمانسك في أقصى شمال...

ثماني حالات مرضية يمكن أن يكشف عنها تنفّسك

تظهر رائحة النفس كمرآة دقيقة تعكس ما يجري داخل...

دراسة توضّح السبب وراء مساهمة مضغ العلكة في تعزيز التركيز وتخفيف التوتر؟

تشير مراجعة علمية حديثة إلى أن مضغ العلكة يحفز...

الجارديان: جوجل تزيل بعض ملخصات الذكاء الاصطناعي لتقديم معلومات صحية خاطئة

كشف تحقيق أجرته الجريدة أن شركة جوجل أزالت بعض ملخصات الذكاء الاصطناعي الصحية التي اشتملت على معلومات خاطئة أو مضللة، وهذا قد يعرض المستخدمين لخطر الأذى عند الاعتماد على هذه الملخصات في معلومات صحية سريعة.

التفاصيل الأساسية للملخصات وتأثيرها

توضح الملخصات التي توفر لمحات سريعة عن معلومات أساسية حول موضوع ما أنها مفيدة وموثوقة عندما تكون دقيقة، إلا أن التحقيق أظهر أن بعض الملخصات التي تظهر في أعلى نتائج البحث قدمت معلومات صحية غير دقيقة.

من بين الحالات التي وصفت بأنها خطيرة ومقلقة، أولت جوجل معلومات زائفة حول اختبارات وظائف الكبد الحاسمة لتقييم صحة الكبد لدى مرضى قد تكون لديهم أمراض كبديّة خطيرة، وهو ما قد يجعلهم يظنون أنهم في حالة صحية طبيعية.

وأوضحت الجارديان أن كتابة عبارة «ما هو النطاق الطبيعي لاختبارات الدم للكبد» أدى إلى ظهور أعداد هائلة من الأرقام مع قلة السياق وعدم مراعاة جنس المرضى أو عرقهم أو عمرهم.

قال خبراء إن ما تصفه تقارير الذكاء الاصطناعي على أنه «طبيعي» قد يختلف جذرياً عما يعتبر طبيعياً في الواقع، مما قد يدفع المرضى المصابين بأمراض خطيرة إلى تقليل الحذر من نتائجهم وعدم حضور مواعيد المتابعة الطبية.

الإجراءات والتعليقات الرسمية

بعد التحقيق، قامت جوجل بإزالة ملخصات الذكاء الاصطناعي لعبارتَي البحث «ما هو النطاق الطبيعي لاختبارات الدم للكبد» و«ما هو النطاق الطبيعي لاختبارات وظائف الكبد».

قال متحدث باسم جوجل: لا نعلق على عمليات الحذف الفردية داخل البحث، وفي الحالات التي تفتقر مراجعات الذكاء الاصطناعي إلى سياق كافٍ، نجري تحسينات شاملة ونطبق سياساتنا عند الاقتضاء.

أشادت فانيسا هيبديتش، مديرة الاتصالات والسياسات في مؤسسة British Liver Trust، بإزالة Google AI Overviews في هذه الحالات، لكنها أضافت أن طرح سؤال بصيغة مختلفة قد يؤدي إلى عرض نظرة عامة مضللة محتملة عن الذكاء الاصطناعي، ولا تزال المعلومات الصحية الأخرى التي ينتجها الذكاء الاصطناعي قد تكون غير دقيقة ومربكة.

وجدت الجارديان أن كتابة عبارات مشابهة لاستفسارات جوجل الأصلية، مثل «نطاق مرجعي لاختبار LFT» أو «نطاق مرجعي لاختبار LFT»، تؤدي إلى ظهور ملخصات الذكاء الاصطناعي، وأكدت هيبديتش أن هذا يثير قلقاً بالغاً لأن اختبار وظائف الكبد هو مجموعة من تحاليل الدم المتنوعة. وأضافت أن خدمة نظرة عامة على الذكاء الاصطناعي تعرض قائمة بالاختبارات بخط عريض، مما يجعل من السهل جداً أن يغفل القارئ أن هذه الأرقام قد لا تكون أرقام اختباره الصحيحة.

كما أشارت إلى أن التحذير من أن الشخص قد يحصل على نتائج طبيعية بينما يعاني من مرض كبدي خطير ويحتاج إلى رعاية طبية إضافية يعد تطميناً زائفاً قد يكون ضاراً للغاية.

خلاصة النتائج أن محتوى الملخصات الناتج عن الذكاء الاصطناعي قد يختلف كثيراً عن الواقع الصحي، وأن إزالة الملخصات المضللة خطوة إيجابية لكنها لا تضمن دقة جميع المحتويات الصحية الناتجة عن الذكاء الاصطناعي.

spot_img
spot_imgspot_img

تابعونا على