2023-02-21 11:28:36

Microsoft isi limiteaza chatbotul AI

Dupa ce au aparut dovezi ca chatbotul AI de la Microsoft "si-a luat nasul la purtare", compania a analizat situatia si a anuntat o masura de natura sa ii linisteasca pe utilizatori: a limitat numarul de "tururi de chat” pe care le poti efectua cu Bing la cinci per sesiune si 50 pe zi, in total. Nu se stie cat de credibil este acest demers, deoarece marturiile utilizatorilor te pun intr-adevar pe ganduri. Este celebra deja relatarea editorialistului New York Times, Kevin Roose, care a postat transcrierea completa a conversatiei sale cu robotul, in care se insinua ca acesta isi doreste sa pirateze computere, sa raspandeasca propaganda si dezinformare, sa faca alte lucruri rele si mai ales sa aiba viata proprie si sa fie independent.

In urma acestor rapoarte, Microsoft a publicat o postare pe blog in care cauta sa explice comportamentul ciudat al chatbotului AI Bing: sesiunile de chat foarte lungi, cu 15 sau mai multe intrebari, "deruteaza" modelul si il determina sa raspunda intr-un mod care "nu este neaparat util sau in conformitate cu tonul proiectat”.

Asa ca de acum fiecare tur de chat reprezinta un schimb de conversatii compus din intrebarea ta si raspunsul dat de Bing, doar ca, la un moment dat, ti se va spune ca chatbot-ul si-a atins limita. Analistii comenteaza ca Microsoft a ales varianta "mai bine un utilizator frustrat, decat unul inspaimantat".


Sursa foto: Tech Ballad


Vezi si