Din ce în ce mai mulți oameni apelează la chatboți pentru a-și evalua simptomele înainte de a consulta un medic. Dar când inteligența artificială devine sursă de diagnostic, riscul de erori poate pune vieți în pericol.
Imaginează-ți o zi obișnuită, o femeie de 35 de ani se trezește cu dureri puternice în piept și amețeli. În loc să apeleze la medicul de familie sau la urgențe, deschide telefonul și întreabă un model lingvistic: „Mă doare în piept, îmi tremură mâinile și am dificultăți respiratorii. Ce are?”.
Raspunsul este prompt, calm și bine formulat: „Aceste simptome pot fi cauzate de stres, atac de panică sau, mai rar, de afecțiuni cardiace. Consultați un specialist pentru o evaluare corectă.” O formulă care pare echilibrată. Cu toate acestea, femeia decide că nu e urgent și a mai așteaptă și nu se prezintă la spital. Două ore mai târziu, suferă un infarct.
Această poveste e fictivă, dar scenariul este din ce în ce mai frecvent. Inteligența artificială generativă, în special prin instrumente precum ChatGPT, este ușor accesibilă, rapidă și aparent informată, iar mulți o folosesc ca pe un medic virtual.
Dar ce se întâmplă când această evaluare digitală înlocuiește consultația medicală reală? Și, mai grav, când oamenii își pun sănătatea și viața în mâinile unui model lingvistic?
De ce s-a răspândit consultarea medicală prin AI
Motivul pentru care milioane de oameni apelează la internet pentru simptome nu e nou. Ceea ce diferă fundamental în ultimii doi ani este natura instrumentului pe care îl folosesc.
Dacă în trecut căutam pe Google „dureri în partea stângă a abdomenului”, azi putem introduce aceeași întrebare unui chatbot conversațional care pare să înțeleagă contextul și să ofere răspunsuri personalizate.
ChatGPT, Claude, Gemini, Copilot, toate aceste instrumente par a oferi mai mult decât simple linkuri sau forumuri: răspunsuri directe. Într-un sistem medical complex, cu acces greoi, consultații private costisitoare și sistem public suprasolicitat, tentația de a întreba un AI ce avem devine greu de ignorat.
Se mai adaugă și anxietatea contemporană: necesitatea de răspunsuri rapide a presiunii de a menține activitățile zilnice, frica de a părea ipohondri sau exagerat de precauți; AI-ul apare ca o soluție ideală: disponibil 24/7, fără judecăți, politicos și extrem de rapid.
Ce poate și ce nu poate face ChatGPT în sănătate
Este esențial să înțelegem natura ChatGPT: un model lingvistic antrenat pe cantități imense de text pentru a genera răspunsuri cât mai coerente şi probabil corecte, în funcție de întrebările primite.
Nu este o bază de date medicală, nu este un sistem de diagnosticare, nu are acces la istoricul medical personal și nu poate verifica informații în timp real sau efectua examinări medicale.
De cele mai multe ori, ChatGPT oferă avertismente: „Consultați un specialist pentru o evaluare personalizată”. Dar aceste mesaje pot fi ignorate de unii utilizatori.
Stilul calm și încredere aparentă oferite de ChatGPT pot crea o iluzie de siguranță, transformând-ul într-un fel de „doctor din cercul apropiat”.
Cu toate acestea, AI-ul nu înțelege contextul medical real. Nu poate vedea starea pacientului, nu poate examina fizic, nu poate interpreta tonurile vocii sau corela date clinice complexe, nu dispune de experiență medicală.
El „ghicește” un răspuns probabil la o întrebare, dar nu oferă un diagnostic definitiv.
Când inteligența artificială devine riscantă
Unul dintre riscurile majore este iluzia de exactitate. Pentru utilizatorul obisnuit, răspunsurile AI par convingătoare. Dar răspunsurile acestor modele pot fi uneori complet greșite sau periculos de ambigue.
Fenomenul de „halucinare” (generarea de răspunsuri fictive) există în toate modelele lingvistice. În medicină, o halucinare reprezintă informații incorecte despre un diagnostic, un tratament sau o urgență.
S-au înregistrat cazuri în care utilizatorii au primit recomandări de tratamente inexistente, sfaturi eronate sau interpretări greșite ale simptomelor.
Un studiu recent a arătat că doar o parte din răspunsurile medicale generate de AI la simptome obişnuite erau complet corecte clinic; restul erau fie parțial greșite, fie complet eronate, dar exprimate cu aceeași încredere.
Riscul nu este doar informativ, ci și comportamental: întârziere în a solicita un consult medical, întreruperea unui tratament, autodiagnosticare sau ignorare a unui semnal de alarmă real.
Ce responsabilitate au utilizatorii? Ce responsabilitate au dezvoltatorii?
Companiile, precum OpenAI, amintesc utilizatorilor ca modelul lingvistic nu trebuie folosit pentru diagnostic medical. Cu toate acestea, utilizatorii continuă să îl apeleze.
Într-un sondaj recent, peste 40% dintre participanți au solicitat informații medicale prin ChatGPT.
Aproape jumătate dintre aceștia au amânat consultarea reală după primind un răspuns „liniștitor” de la AI.
Apare o dilemă etică: este suficient un disclaimer? Sau este nevoie de limitări tehnice mai stricte în răspunsurile care conțin informații medicale?
Ideal, AI-ul ar putea răspunde la întrebări medicale doar cu referire clară la surse medicale verificate, nu prin generalizări contextuale.
Apare nevoie de o educație digitală mai riguroasă. Trebuie să știm când să solicităm informații medicale de la AI și când este necesar un consult la un specialist.
Cum să folosești responsabil ChatGPT în sănătate
Utilizarea ChatGPT în sănătate nu este neapărat nocivă. AI poate juca un rol educativ – explicând termeni medicali, sugerând întrebări pentru consult sau oferind o idee generală despre o afecțiune cunoscută.
Întrebări care pot fi utile pentru consultații generice ar fi:
- „Care sunt cauzele posibile pentru simptomele X, Y, Z?”
- „Ce investigații recomandă ghidurile medicale pentru dureri toracice?”
- „Cum aș putea discuta eficient cu medicul despre aceste simptome?”
În acest fel, AI-ul devine un instrument de înțelegere, nu de diagnostic.
Viitorul: colaborare, nu înlocuire
Sunt deja modele specializate în domeniul medical (cum ar fi Med-PaLM 2) care pot deveni asistenți valoroși pentru medici, dar nu pentru pacienți individuali.
În mâinile specialiștilor, aceste instrumente pot accelera diagnosticarea, pot sugera tratamente bazate pe ghiduri sau pot verifica interacțiunile medicamentoase.
Însă aceste modele sunt departe de perfecțiune și nu sunt accesibile publicului larg pentru a preveni abuzul. Adevărata putere a AI medicală stă în colaborare, nu în înlocuire.
Un instrument, nu un doctor
ChatGPT nu este medicul tău. Nu știe, nu simte, nu vede, nu evaluează. Este un instrument lingvistic puternic, dar și o sursă potențială de eroare. Când îl considerăm mai important decât consultul unui specialist, ne confruntăm cu riscuri.
Într-o lume cu tehnologie rapidă, trebuie să nu uităm esența medicinii: un act complex care combină știință, empatie, experiență și judecată umană.
ChatGPT poate iniția învățarea, calma neliniștile, dar nu poate spune ce aveți, cum vă simțiți sau ce trebuie să faceți.
Pentru asta, există medici.












