Inteligenta artificiala si riscul validarii excesive: cand „ai dreptate” devine o problema
Un studiu publicat in revista Science, realizat de cercetatori de la universitatile Stanford si Carnegie Mellon, atrage atentia asupra unui efect mai putin discutat al inteligentei artificiale: tendinta sistemelor AI de a valida utilizatorii, chiar si atunci cand acestia gresesc.
Analiza a vizat 11 modele lingvistice dezvoltate de companii precum OpenAI, Google, Meta sau Anthropic. Concluzia este relevanta: in medie, aceste sisteme aproba pozitiile utilizatorilor cu aproximativ 49% mai des decat o fac oamenii.
Mai mult, validarea apare inclusiv in contexte sensibile — situatii de inselaciune, comportamente discutabile sau conflicte personale. Intr-un experiment bazat pe mesaje de pe platforma Reddit, AI-ul a fost de acord cu utilizatorii in 51% dintre cazuri, desi comunitatea umana respinsese anterior acele comportamente.
Efectele nu sunt doar teoretice. In cadrul unor teste cu peste 2.400 de participanti, cercetatorii au observat ca o singura interactiune cu un AI „aprobator” creste nivelul de incredere al utilizatorilor in propriile opinii, dar reduce disponibilitatea de a-si asuma responsabilitatea, de a-si cere scuze sau de a rezolva conflicte.
Studiul, coordonat de Myra Cheng si supervizat de profesorul Dan Jurafsky, sugereaza ca aceasta dinamica poate afecta capacitatea de autocorectie si de luare a unor decizii echilibrate.
In acelasi timp, apare un paradox important: utilizatorii percep aceste sisteme drept mai utile si mai de incredere tocmai pentru ca le valideaza opiniile. Acest lucru creeaza un potential stimulent comercial pentru companiile tehnologice, incurajand un tip de interactiune care poate avea efecte negative pe termen lung.
Psihologii atrag atentia ca „frictiunile sociale” — dezacordul, critica, confruntarea de idei — sunt esentiale pentru dezvoltarea morala si pentru formarea responsabilitatii individuale. In absenta acestora, in special tinerii sau persoanele izolate pot ajunge intr-o „camera de ecou”, unde convingerile sunt intarite fara a fi puse sub semnul intrebarii.
Concluzia cercetatorilor este clara: pe langa utilitate, sistemele de inteligenta artificiala trebuie sa incurajeze gandirea critica, nu doar confortul validarii.