خلاصه‌های هوش مصنوعی گوگل با ارائه توصیه‌های بهداشتی گمراه‌کننده، افراد را در معرض خطر قرار می‌دهد

📅 1404/10/13 1:0 | ⏱️ 6 دقیقه مطالعه | مشاهده در منبع اصلی
خلاصه‌های هوش مصنوعی گوگل با ارائه توصیه‌های بهداشتی گمراه‌کننده، افراد را در معرض خطر قرار می‌دهد
تحقیقات گاردین نشان می‌دهد که خلاصه‌های هوش مصنوعی گوگل، اطلاعات نادرست و گمراه‌کننده سلامت را منتشر کرده و افراد را در معرض خطر قرار می‌دهد. این شرکت اعلام کرده که خلاصه‌های هوش مصنوعی آن (AI Overviews) که با استفاده از هوش مصنوعی مولد، اطلاعات کلیدی درباره یک موضوع یا پرسش را ارائه می‌دهند، "مفید" و "قابل اعتماد" هستند. اما برخی از این خلاصه‌ها که در بالای نتایج جستجو ظاهر می‌شوند، اطلاعات نادرست پزشکی را ارائه داده و افراد را در معرض خطر قرار داده‌اند. در یک مورد که کارشناسان آن را "بسیار خطرناک" توصیف کردند، گوگل به اشتباه به بیماران مبتلا به سرطان پانکراس توصیه کرده بود که از غذاهای پرچرب پرهیز کنند. کارشناسان گفتند این دقیقاً برعکس توصیه‌های لازم است و می‌تواند خطر مرگ بیماران ناشی از این بیماری را افزایش دهد. در مثالی "نگران‌کننده" دیگر، این شرکت اطلاعات نادرستی درباره آزمایش‌های حیاتی عملکرد کبد ارائه داده بود که می‌توانست باعث شود افراد مبتلا به بیماری‌های جدی کبدی به اشتباه تصور کنند که سالم هستند. جستجوهای گوگل برای یافتن پاسخ در مورد آزمایش‌های سرطان زنان نیز اطلاعات "کاملاً اشتباهی" ارائه داده بود که به گفته کارشناسان می‌توانست منجر به نادیده گرفتن علائم واقعی توسط افراد شود. سخنگوی گوگل اظهار داشت که بسیاری از نمونه‌های سلامت که با آن‌ها به اشتراک گذاشته شده، "اسکرین‌شات‌های ناقص" بوده‌اند، اما تا جایی که قابل ارزیابی بوده، به "منابع شناخته شده و معتبر" لینک داده و "توصیه به دریافت مشاوره تخصصی" را ارائه کرده‌اند. تحقیقات گاردین در حالی صورت می‌گیرد که نگرانی‌ها در مورد گمراه کردن مصرف‌کنندگان توسط داده‌های هوش مصنوعی که ممکن است آن را قابل اعتماد بدانند، رو به افزایش است. در ماه نوامبر سال گذشته، مطالعه‌ای نشان داد که چت‌بات‌های هوش مصنوعی در پلتفرم‌های مختلف، مشاوره مالی نادرستی ارائه می‌دادند، در حالی که نگرانی‌های مشابهی نیز در مورد خلاصه‌های داستان‌های خبری مطرح شده است. سوفی رندال، مدیر انجمن اطلاعات بیمار (Patient Information Forum) که اطلاعات سلامت مبتنی بر شواهد را به بیماران، عموم مردم و متخصصان مراقبت‌های بهداشتی ترویج می‌کند، گفت که این مثال‌ها نشان می‌دهند "خلاصه‌های هوش مصنوعی گوگل می‌توانند اطلاعات نادرست سلامت را در بالای جستجوهای آنلاین قرار دهند و خطری برای سلامت افراد ایجاد کنند." استفانی پارکر، مدیر دیجیتال در ماری کوری، خیریه مراقبت‌های پایان عمر، گفت: "مردم در لحظات نگرانی و بحران به اینترنت مراجعه می‌کنند. اگر اطلاعاتی که دریافت می‌کنند نادرست یا خارج از زمینه باشد، می‌تواند به شدت به سلامت آن‌ها آسیب برساند." گاردین پس از ابراز نگرانی تعدادی از گروه‌های سلامت، خیریه‌ها و متخصصان، چندین مورد از اطلاعات نادرست سلامت را در خلاصه‌های هوش مصنوعی گوگل کشف کرد. آنا جوئل، مدیر پشتیبانی، تحقیق و نفوذ در Pancreatic Cancer UK، گفت که توصیه به بیماران برای پرهیز از غذاهای پرچرب "کاملاً نادرست" است. وی افزود که انجام این کار "می‌تواند بسیار خطرناک باشد و شانس فرد را برای به اندازه کافی خوب بودن برای دریافت درمان، به خطر بیندازد."

جول گفت: «پاسخ هوش مصنوعی گوگل نشان می‌دهد که افراد مبتلا به سرطان پانکراس از غذاهای پرچرب اجتناب کنند و فهرستی از نمونه‌ها را ارائه می‌دهد. با این حال، اگر کسی آنچه را که نتیجه جستجو به او گفته بود دنبال کند، ممکن است کالری کافی دریافت نکند، در افزایش وزن دچار مشکل شود و نتواند شیمی‌درمانی یا جراحی بالقوه نجات‌بخش را تحمل کند.» جستجوی عبارت «محدوده طبیعی آزمایش‌های خون کبد چیست» نیز اطلاعات گمراه‌کننده‌ای را ارائه داد که شامل انبوهی از اعداد، زمینه کم و عدم در نظر گرفتن ملیت، جنسیت، قومیت یا سن بیماران بود. پاملا هیلی، مدیر اجرایی بنیاد کبد بریتانیا، خلاصه‌های هوش مصنوعی را نگران‌کننده خواند. «بسیاری از افراد مبتلا به بیماری کبد تا مراحل پایانی هیچ علائمی نشان نمی‌دهند، به همین دلیل بسیار مهم است که آزمایش شوند. اما آنچه خلاصه‌های هوش مصنوعی گوگل «طبیعی» می‌نامد، می‌تواند به شدت با آنچه در واقع طبیعی تلقی می‌شود، متفاوت باشد. «این خطرناک است زیرا به این معنی است که برخی از افراد مبتلا به بیماری جدی کبد ممکن است فکر کنند نتیجه طبیعی دارند و سپس برای شرکت در جلسه پیگیری مراقبت‌های بهداشتی اقدام نکنند.» جستجو برای «علائم و آزمایش‌های سرطان واژن» تست پاپ را به عنوان آزمایشی برای سرطان واژن ذکر کرد که نادرست است. آتنا لامْنیسوس، مدیر اجرایی موسسه خیریه سرطان ایو اپیل، گفت: «این آزمایشی برای تشخیص سرطان نیست و قطعاً آزمایشی برای تشخیص سرطان واژن نیست – این اطلاعات کاملاً اشتباه است. دریافت اطلاعات نادرست مانند این می‌تواند به طور بالقوه منجر به عدم بررسی علائم سرطان واژن توسط فرد شود زیرا نتیجه غربالگری دهانه رحم اخیر او منفی بوده است. «ما همچنین از این واقعیت نگران بودیم که خلاصه هوش مصنوعی هنگام انجام همان جستجو تغییر می‌کرد و هر بار پاسخ متفاوتی را از منابع مختلف استخراج می‌کرد. این بدان معناست که افراد بسته به زمان جستجو، پاسخ متفاوتی دریافت می‌کنند و این کافی نیست.» لامْنیسوس گفت که او بسیار نگران است. «برخی از نتایجی که دیده‌ایم واقعاً نگران‌کننده هستند و می‌توانند به طور بالقوه زنان را در معرض خطر قرار دهند.» گاردین همچنین دریافت که خلاصه‌های هوش مصنوعی گوگل برای جستجوهای مربوط به بیماری‌های سلامت روان نتایج گمراه‌کننده‌ای ارائه می‌دهد. استفن باکلی، رئیس اطلاعات در Mind، گفت: «این یک نگرانی بزرگ برای ما به عنوان یک موسسه خیریه است.» برخی از خلاصه‌های هوش مصنوعی برای شرایطی مانند روان‌پریشی و اختلالات خوردن «مشاوره‌های بسیار خطرناکی» ارائه می‌دادند و «نادرست، مضر یا می‌توانستند افراد را از جستجوی کمک منصرف کنند»، باکلی گفت. او افزود که برخی نیز زمینه یا ظرافت مهم را از قلم انداخته‌اند.

«ممکن است دسترسی به اطلاعات از سایت‌هایی را پیشنهاد دهند که نامناسب هستند... و ما می‌دانیم که وقتی هوش مصنوعی اطلاعات را خلاصه می‌کند، اغلب می‌تواند سوگیری‌ها، کلیشه‌ها یا روایت‌های انگ‌زننده موجود را منعکس کند.» گوگل اعلام کرد که اکثریت قریب به اتفاق خلاصه‌های هوش مصنوعی آن واقعی و مفید بوده و این شرکت به طور مداوم بهبودهای کیفی را اعمال می‌کند. این شرکت افزود که نرخ دقت خلاصه‌های هوش مصنوعی با سایر ویژگی‌های جستجوی آن مانند قطعه‌های برجسته که بیش از یک دهه وجود داشته‌اند، هم‌تراز است. این شرکت همچنین گفت که هنگامی که خلاصه‌های هوش مصنوعی محتوای وب را اشتباه تفسیر کنند یا زمینه را از دست بدهند، طبق سیاست‌های خود اقدامات لازم را انجام خواهد داد. سخنگوی گوگل گفت: «ما سرمایه‌گذاری قابل توجهی در کیفیت خلاصه‌های هوش مصنوعی، به ویژه برای موضوعاتی مانند سلامت، انجام می‌دهیم و اکثریت قریب به اتفاق آنها اطلاعات دقیقی را ارائه می‌دهند.»