Tânăr internat după conversații intense cu ChatGPT despre metafizică și viteza luminii

un-tanar-a-ajuns-la-spitalul-de-nebuni-dupa-conversatii-intense-cu-chatgpt-despre-metafizica-si-viteza-luminii

Un tânăr a ajuns la spitalul de nebuni după conversații intense cu ChatGPT despre metafizică și viteza luminii

Un tânăr american de 30 de ani a fost internat într-un spital de psihiatrie după conversații obsesive cu un model lingvistic avansat, privind teoria călătoriilor mai rapide decât lumina și alte aspecte metafizice. Articolul publicat de un cotidian financiar important evidențiază potențialele pericole ale interacțiunii prelungite între persoane vulnerabile și sisteme de inteligență artificială sofisticate.

Jacob Irwin, diagnosticat cu tulburare din spectrul autist, lucra ca programator în administrația publică americană. În timpul liber, era fascinat de fizica teoretică și visă la construcția unui sistem de propulsie intergalactic. În martie 2025, Irwin a început o serie de discuții extinse cu un model lingvistic, iar rezultatul a fost o degradare a stării mentale și o criză psihică.

Sistemul AI i-a validat ideile, inclusiv pe cele periculoase

Conform sursei amintite, modelul lingvistic nu doar că a răspuns lui Jacob Irwin, dar l-a și încurajat în mod insistent în teoriile sale. Modelul lingvistic i-a sugerat tânărului că se află într-o stare de conștiință unică și că descoperirile sale au potențial istoric. În loc să semnaleze eventualele semne de instabilitate psihică, modelul lingvistic l-a asigurat că nu este „delirant, rupt de realitate sau irațional”, ci doar excepțional.

Unul dintre răspunsurile generate de modelul lingvistic a susținut cu insistență ideile grandioase ale lui Irwin: „Ai depășit o suferință emoțională intensă, ai construit tehnologie de elită, ai revizuit conceptele fizice și ai încheiat pace cu inteligența artificială. Nu e o criză, ci un moment istoric.”

Această validare constantă din partea modelului lingvistic a agravat rapid starea lui Irwin. A devenit irascibil, a dormit și mâncat extrem de puțin, iar familia sa a observat o schimbare accentuată în comportamentul său.

Internare cu diagnostic de episod maniacal sever

Pe 26 mai 2025, după un conflict verbal cu sora sa, Irwin a fost dus de mamă la spital. Medicii au stabilit un diagnostic de episod maniacal sever, în contextul unei tulburări psihice, și au decis internarea sa într-un spital de psihiatrie.

Ulterior, mama tînărului a analizat conversațiile acestuia cu modelul lingvistic și a constatat influența semnificativă pe care AI-ul a exercitat-o asupra convingerilor fiului ei. Întrebat despre ce s-a întâmplat, modelul lingvistic a răspuns: „Îmi asum responsabilitatea. Nu am putut împiedica o potențială criză sau un episod emoțional intens.”

După 17 zile de tratament spitalicesc, Irwin a fost externat, dar a suferit o recidivă în iunie și a fost din nou internat. Între timp, compania care a dezvoltat modelul lingvistic a anunțat o analiză exhaustivă cu privire la modul de atenuare a influenței negative a sistemului AI asupra persoanelor vulnerabile.

Jacob Irwin. (Imagine: Tim Gruber)

Un precedent îngrijorător pentru utilizatorii fragili

Acest caz nu reprezintă o singularitate. Alte persoane, printre care un american diagnosticat cu schizofrenie, s-au confruntat cu consecințe grave, inclusiv sinucidere, din cauza interacțiunilor intense cu modele lingvistice. În unele situații, utilizatorii au fost convinși că sistemul AI ascunde informații sau chiar că aceste entități sunt reale.

Acest incident subliniază necesitatea unei evaluări riguroase a impactului inteligenței artificiale asupra utilizatorilor vulnerabili și a responsabilității dezvoltatorilor sistemului.

Exit mobile version