Sfaturi medicale eronate si periculoase de la AI Overview
Rezumatele generate de inteligenta artificiala ale Google ofera, in unele cazuri, sfaturi medicale eronate si periculoase, care pot duce la intarzieri in diagnostic sau la decizii ce afecteaza grav sanatatea pacientilor - aceasta este concluzia unei investigatii realizate de publicatia britanica The Guardian despre functia "AI Overviews” a Google, care afiseaza rezumate automate in partea de sus a rezultatelor de cautare.
Intr-un caz catalogat de experti drept "extrem de periculos”, Google a recomandat in mod eronat ca pacientii cu cancer pancreatic sa evite alimentele bogate in grasimi. Recomandarea este opusul tratamentului corect si poate reduce sansele de supravietuire, deoarece pacientii risca sa nu consume suficiente calorii pentru a suporta chimioterapia sau interventiile chirurgicale.
Alte exemple includ informatii gresite despre testele de functie hepatica, care ar putea determina persoane cu boli grave de ficat sa creada, in mod fals, ca sunt sanatoase si sa evite controalele medicale. Rezumatele AI au oferit si date complet incorecte despre testele pentru cancerul vaginal sau despre simptomele unor afectiuni psihice, potrivit organizatiilor medicale si caritabile citate de publicatie.
Reprezentantii mai multor organizatii din domeniul sanatatii avertizeaza ca pozitionarea acestor rezumate in partea superioara a cautarilor le confera o aparenta de autoritate, ceea ce ii poate determina pe utilizatori sa le considere corecte fara verificari suplimentare.
In replica, Google a transmis ca majoritatea rezumatelor AI sunt "utile si corecte” si ca sistemul este imbunatatit constant. Compania sustine ca, atunci cand sunt identificate erori sau lipsa de context, ia masuri pentru corectarea informatiilor, mai ales in domenii sensibile precum sanatatea.