O investigație realizată de The Guardian a scos la iveală probleme majore legate de rezumatele generate de inteligența artificială (AI) de la Google în domeniul sănătății, care au furnizat informații false și potențial periculoase pacienților. Ancheta arată că răspunsurile AI oferite la căutările legate de analize de sânge și funcția hepatică conțineau date inexacte, înșelătoare și lipsite de context, punând în pericol viețile persoanelor care se bazează pe aceste informații, potrivit hotnews.ro.
Jurnaliștii britanici au descoperit că, la interogări precum „care este intervalul normal pentru testele de sânge hepatice”, AI-ul Google a generat o serie de cifre fără a ține cont de vârsta, sexul, etnia sau starea de sănătate a pacientului. Experții au avertizat că aceste rezultate pot fi extrem de alarmante, deoarece AI-ul poate prezenta valori ca fiind „normale” atunci când, în realitate, acestea indică o problemă gravă. Astfel, pacienții cu boli hepatice ar putea crede eronat că sunt sănătoși și ar putea omite consultările medicale esențiale, cu riscuri majore pentru sănătatea lor.
Te-ar mai putea interesa și: Burnout-ul ar putea aduce concediu plătit fără acte medicale. Ce schimbări majore pregătește noul proiect de lege
Ca urmare a anchetei, Google a eliminat unele AI Overviews pentru interogările referitoare la testele funcționale hepatice și intervalele normale ale analizelor de sânge. Compania susține că aceste rezumate AI sunt, în general, „utile” și „fiabile”, însă recunoaște că anumite cazuri pot omite contexte esențiale și că lucrează la îmbunătățiri generale ale sistemului.
Vanessa Hebditch, directoarea de comunicare a British Liver Trust, a salutat decizia Google, dar a avertizat că modificările nu elimină complet riscul: AI Overviews pot apărea și la interogări ușor diferite, generând informații tot înșelătoare și confuze. Experții subliniază că interpretarea rezultatelor medicale este mult mai complexă decât compararea unor numere, iar AI-ul nu avertizează că anumite boli pot exista chiar și atunci când testele arată valori normale, ceea ce creează o falsă siguranță periculoasă.
Ancheta a relevat că AI Overviews continuă să genereze informații false și în alte domenii sensibile, precum cancerul sau sănătatea mintală, pe care experții le consideră „complet greșite” și „foarte periculoase”. Google susține că aceste rezumate conțin linkuri către surse de încredere și informează utilizatorii să consulte un specialist atunci când este necesar, însă problema rămâne că prezentarea succintă a informațiilor poate induce în eroare milioane de oameni.
Analizele arată cât de greu este pentru adulți din întreaga lume să acceseze informații medicale sigure și bazate pe dovezi. Potrivit lui Sue Farrington, președinta Patient Information Forum, pacienții și publicul se bazează adesea pe motoarele de căutare pentru răspunsuri rapide, ceea ce face ca erorile AI să fie extrem de periculoase.