Google se pregătește să implementeze în Europa un sistem de răspunsuri AI, menit să prezinte sinteze relevante, dar care, în unele situații, a generat rezultate inacceptabile, periculoase sau chiar jignitoare. În loc de o listă de link-uri, sistemul oferă direct un rezumat, dar uneori a produs concluzii absurde, cum ar fi recomandarea utilizării adezivului pentru a menține brânza pe pizza sau ingerarea unei pietre în fiecare zi.
Aparent amuzante, aceste erori pun în evidență o problemă structurală. Specialiștii consideră că „halucinațiile” AI – răspunsuri eronate, inventate sau irelevante – sunt o caracteristică inerentă a modelelor lingvistice mari. Pe măsură ce astfel de sisteme devin principala sursă de informații pentru milioane de utilizatori, riscurile cresc dramatic.
Sistemul Google AI Overviews recomandând lipire brânză pe pizza cu adeziv.
Funcția controversată ajunge în Europa, fără opțiune de dezactivare
După testele din SUA și Marea Britanie, sistemul este implementat și în mai multe state europene, inclusiv Germania, Italia, Polonia, Spania şi Irlanda. Odată activat, utilizatorii nu îl pot dezactiva. Rezultatele AI apar automat deasupra rezultatelor tradiționale, chiar dacă informațiile pot fi incomplete, scoase din context sau incorecte.
Google susține că tehnologia este utilizată de peste un miliard de utilizatori și că sistemul se va îmbunătăți în timp. Cu toate acestea, criticii subliniază că funcționarea sistemului prezintă riscuri pentru calitatea informației, afectând mediul online: site-urile pierd vizitatori, presa venituri, iar creatorii de conținut sunt afectați.
De la greșeli amuzante la scandaluri internaționale
Sistemul AI Overviews nu este singura problemă cu care se confruntă Google. În ultimele luni, compania a fost implicată în mai multe controverse legate de produsele sale AI. Modelul Gemini, de exemplu, a fost acuzat de prezentarea de imagini istorice inexacte, cum ar fi reprezentarea unor soldați naziști ca persoane de altă culoare. Aceste erori nu sunt accidente, ci consecințe ale ajustărilor excesive în încercarea de a promova diversitatea.
Reacțiile de pe plan internațional au fost rapide. Ministrul IT al Indiei a criticat aspru Google după ce Gemini a generat un răspuns considerat părtinitor la adresa prim-ministrului Narendra Modi. Ca urmare, Google a fost nevoită să suspende temporar funcțiile de generare a imaginilor și să reorienteze echipele de dezvoltare AI.
În plus, Google recunoaște dificultăți în controlul acestor modele și în prevenirea răspândirii dezinformării, ceea ce ridică îngrijorări legate de capacitatea gigantului tehnologic de a gestiona această putere.
Halucinațiile AI: creativitate sau risc?
Sam Altman, CEO OpenAI, susține că halucinațiile AI pot reprezenta un tip de creativitate, utilă în scopuri recreative. Însă, când aceste răspunsuri devin principala sursă de informație pentru public, situația se modifică radical. AI nu posedă discernământ, nici nu poate înțelege contextul cultural sau social.
Specialiștii propun soluții tehnice pentru a limita aceste probleme, precum integrarea baze de date vectoriale sau utilizarea unor sisteme hibride, combinând rezultatele căutării clasice cu modele de AI, pentru răspunsuri mai precise și documentate.
Până atunci, trecerea Google către un internet dominat de AI rămâne o evoluție controversată, în care erorile nu mai sunt doar amuzante, ci pot influența semnificativ percepția asupra lumii.