كشف تحقيق لصحيفة الغارديان أن ميزة AI Overviews في بحث جوجل – التي تولّد ملخصات تلقائية باستخدام الذكاء الاصطناعي وتظهر أعلى نتائج البحث – قدّمت معلومات صحية خاطئة ومضلِّلة بشأن تحاليل الدم الخاصة بوظائف الكبد، بما قد يدفع مرضى يعانون من أمراض خطيرة للاعتقاد بأن نتائجهم “طبيعية”.
أدخل الصحفيون سؤالًا من نوع “ما هو المدى الطبيعي لتحاليل الدم الخاصة بالكبد؟”، فظهرت قائمة طويلة من الأرقام من دون سياق، ودون الإشارة إلى أن “الطبيعي” يختلف باختلاف العمر والجنس والعرق وعوامل أخرى، وهو ما وصفه خبراء بأنه “خطير” و“مقلق للغاية”.
يحذّر اختصاصيون quoted في التقرير من أن شخصًا يعاني من مرض كبدي خطير قد يطّلع على تلك الأرقام المولَّدة بالذكاء الاصطناعي، ويقارن نتائج فحصه بها، ثم يتجاهل مواعيد المتابعة الطبية ظنًا أن وضعه سليم، ما يخلق خطرًا مباشرًا على الصحة العامة عندما تُقدَّم المعلومات المعقّدة بهذه البساطة المضللة.
جوجل تزيل ملخصات محددة
بعد نشر التحقيق الأول للغارديان في 2 يناير حول أخطاء صحية في AI Overviews، قامت جوجل بإزالة الملخصات الخاصة بعبارات البحث من قبيل “what is the normal range for liver blood tests” و“what is the normal range for liver function tests”.
رفض متحدث باسم الشركة التعليق على قرارات إزالة بعينها، مكتفيًا بالقول إن جوجل “لا تعلّق على حالات فردية داخل البحث”، وإنها تعمل، عندما تفوّت الملخصات سياقًا مهمًا، على “إدخال تحسينات واسعة” وتتخذ إجراءات وفق سياساتها عند الاقتضاء.
مع ذلك، أظهر اختبار لاحق للغارديان أن صيغًا قريبة للسؤال – مثل “lft reference range” أو “lft test reference range” – لا تزال تُظهر AI Overviews ببيانات قد تكون مضلِّلة، ما أثار قلقًا إضافيًا لدى الجمعيات المتخصصة.
تحذيرات من جمعيات متخصصة
وصفت فانيسا هِبتِتش، مديرة التواصل والسياسات في مؤسسة British Liver Trust، إزالة بعض الملخصات بأنها “خبر ممتاز”، لكنها شددت على أن المشكلة أبعد من سؤال واحد؛ إذ يمكن أن تظهر إجابات مشابهة إذا صيغ السؤال بطريقة مختلفة قليلًا.
أوضحت أن اختبار وظائف الكبد (LFT) عبارة عن مجموعة من التحاليل، وأن فهم النتائج يتطلب أكثر بكثير من مقارنة أرقام بقائمة ثابتة، في حين تعرض AI Overviews قائمة اختبارات بخط عريض يسهل أن يسيء القارئ تفسيرها.
أضافت هِبتِتش أن الملخصات لا تحذّر المستخدمين من أن الشخص قد يحصل على نتائج “طبيعية” رغم إصابته بمرض كبدي خطير يحتاج إلى متابعة وعلاج، وأن هذا النوع من “الطمأنة الزائفة” قد يكون ضارًا للغاية.
وتقول إن التركيز على إطفاء ملخص واحد يشبه “التعامل مع نتيجة واحدة بدل معالجة المشكلة الأكبر: دور AI Overviews في المعلومات الصحية عمومًا”.
أمثلة أخرى على معلومات
يشير التقرير إلى أن ميزة AI Overviews لا تزال تظهر بالنسبة لاستعلامات صحية أخرى سبق أن نبهت الجارديان جوجل إليها، من بينها استفسارات متعلقة بالسرطان والصحة النفسية، وصفها خبراء بأنها “خاطئة بالكامل” و“شديدة الخطورة”.
تقول سيو فارينجتون، رئيسة منتدى معلومات المرضى Patient Information Forum، إن إزالة هذه الملخصات الأولى خطوة “جيدة لكنها ليست كافية” للحفاظ على الثقة في نتائج جوجل المتعلقة بالصحة، مؤكدة أن هناك “أمثلة كثيرة” لمعلومات غير دقيقة لا تزال متاحة.
تشير فارينغتون إلى أن ملايين البالغين حول العالم يعانون أصلًا في الوصول إلى معلومات صحية موثوقة، ما يجعل دور جوجل حاسمًا في توجيههم نحو مصادر تثقيفية قائمة على الأدلة وعروض رعاية صادرة عن جهات صحية موثوقة، بدل تعريضهم لملخصات خوارزمية قد تُفهم على أنها بديل عن استشارة الطبيب.
رد جوجل: ثقة عالية وروابط لمصادر موثوقة
تقول جوجل إن AI Overviews لا تُعرض إلا في الحالات التي تمتلك فيها الشركة “درجة عالية من الثقة” بجودة الإجابة، وإن فرقًا داخلية من الأطباء تراجع الحالات التي تُثار حولها شكاوى.
وبحسب متحدث باسم الشركة، خلصت مراجعات داخلية إلى أن كثيرًا من الأمثلة المعروضة “لم تكن غير دقيقة”، وأنها مدعومة بمواقع عالية الجودة، وأن الملخصات تنبّه المستخدمين إلى أهمية مراجعة المختصين عندما يكون ذلك ضروريًا.
مع ذلك، ينقل التقرير عن فيكتور تانغيرمان، المحرر الأول في موقع Futurism، أن نتائج تحقيق الغارديان تُظهر بوضوح أن أمام جوجل عملًا كبيرًا “لضمان ألا تقدّم أداة الذكاء الاصطناعي الخاصة بها نصائح صحية خطيرة”.
ويستشهد المقال بمقال آخر في مجلة Search Engine Journal يشير إلى أن ظهور AI Overviews أعلى النتائج المصنّفة تقليديًا يجعل أي خطأ في موضوعات الصحة “أثقل وزنًا” وأكثر تأثيرًا من الأخطاء في فئات أخرى من المعلومات.


