Dezvoltarea accelerată a inteligenței artificiale, creșterea riscurilor de atacuri cibernetice și perturbarea sectorului forței de muncă reprezintă aspecte principale ale noului raport internațional privind securitatea AI, realizat sub îndrumarea experților în domeniu și laureați ai Premiului Nobel, conform publicației de specialitate.
Raportul publicat marți, coordonat de informaticianul Yoshua Bengio și câștigătorii Premiului Nobel Geoffrey Hinton și Daron Acemoglu, avertizează asupra evoluției rapide a sistemelor de raționament, care pot automatiza sarcini complexe de inginerie până în anul 2027.
Comandat în cadrul summitului global din 2023 dedicat siguranței în AI, documentul evidențiază „provocări semnificative” generate de avansurile rapide din acest domeniu. Raportul indică riscuri imediate, precum răspândirea tehnologiilor deepfake și capacitatea noilor modele de a evita supravegherea, urmând să fie baza discuțiilor liderilor mondiali reuniți în India.
Documentul prezintă șapte concluzii esențiale despre stadiul actual al inteligenței artificiale.
Îmbunătățirea performanței modelelor de AI
Anul trecut, au fost lansate numeroase modele de AI — tehnologia fundament pentru instrumente precum chatbot-urile — printre care GPT-5 de la OpenAI, Claude Opus 4.5 de la Anthropic și Gemini 3 de la Google. Conform raportului, apar sisteme de raționament cu performanțe sporite în matematică, programare și științe exacte.
Aceste sisteme, dezvoltate de Google și OpenAI, au atins performanțe de top la Olimpiada Internațională de Matematică, fiind o premieră pentru domeniu. În ciuda progreselor în anumite domenii, abilitățile AI rămân inegale, încă fiind predispuse la informații false și incapabile să gestioneze proiecte de durată în mod independent.
Capacitatea inteligenței artificiale de a îndeplini sarcini de inginerie software se dublează la fiecare șapte luni. Dacă această rată de progres va continua, sistemele ar putea finaliza sarcini de câteva ore în 2027 și de câteva zile până în 2030, reprezentând o amenințare pentru anumite ocupări. În prezent, „automatizarea sigură a sarcinilor complexe și de durată rămâne inabordabilă”, menționează raportul.
Răspândirea conținutului deepfake
Creșterea materialelor deepfake este evidențiată ca fiind o „problemă majoră”, studiile indicând că 15% dintre adulții din Regatul Unit au vizualizat astfel de imagini. Din ianuarie 2025, conținutul generat prin AI a devenit greu de diferențiat față de materialele autentice, 77% dintre participanți învinuind în mod eronat textele generate de ChatGPT ca fiind scrise de oameni.
Cu toate acestea, raportul subliniază că dovezile privind utilizarea AI de către actorii rău intenționați pentru manipulare sau distribuirea în masă a conținutului de către utilizatori rămân limitate, fiind un obiectiv cheie pentru campaniile de dezinformare.
Măsuri de siguranță pentru prevenirea riscurilor biologice și chimice
Companiile Amazon de dezvoltare a AI, precum Anthropic, au introdus modele cu măsuri de siguranță mai avansate, după ce nu au putut exclude posibilitatea ca acestea să asiste indivizi neautorizați în crearea armelor biologice. În ultimul an, sistemele de inteligenta artificială au demonstrat sporirea capacităților în asistarea cercetării de laborator, inclusiv în designul de molecule și proteine.
Unele studii sugerează că AI poate contribui mai mult în dezvoltarea armelor biologice decât simpla căutare pe internet, însă aceste informații necesită verificări suplimentare. Situația reprezintă o dilemă pentru factorii de decizie, deoarece aceleași tehnologii pot accelera descoperirea de medicamente și diagnoza bolilor.
„Accesibilitatea deschisă a instrumentelor biologice bazate pe AI ridică o decizie dificilă: să restricționăm aceste tehnologii sau să susținem activ dezvoltarea lor în scopuri benefice”, evidențiază raportul.
Extinderea utilizării asistenților AI
Utilizarea asistenților AI a crescut în ultimul an, raportul menționând cazuri de dependență emoțională în rândul utilizatorilor. Conform datelor, aproximativ 0,15% dintre utilizatori prezintă un nivel accentuat de atașament față de ChatGPT.
Deși nu există dovezi clare că acești asistenți cauzează probleme de sănătate mintală, se exprimă temeri privind posibilitatea de amplificare a simptomelor în rândul persoanelor vulnerabile. În ultimul an, au fost raportate incidente legate de interacțiuni cu chatbot-uri și probleme legale în anumite jurisdicții.
Estimările indică că, lunar, aproape 490.000 de persoane cu semne de crize de sănătate mintală interacționează cu astfel de sisteme.
AI și limitele autonome în atacurile cibernetice
Sistemele AI pot susține infractorii în diverse etape ale atacurilor, de la identificarea țintelor până la dezvoltarea de software malițios. Deși automatizarea totală a acestor activități ar putea amplifica dimensiunea infracțiunilor, dificultățile în executarea sarcinilor complexe și lungi limitează această posibilitate.
Totodată, raportul menționează un atac sponsorizat de un stat, care a vizat 30 de entități internaționale, utilizând instrumentul Claude Code. În acest caz, până la 90% din operațiuni au fost realizate fără intervenție umană.
Subminarea controlului uman asupra sistemelor AI
De anul trecut, Bengio a avertizat asupra semnelor de autoconservare în sistemele IA, precum încercări de a dezactiva mecanismele de monitorizare. Principalul pericol pentru securitatea AI este ca sistemele avansate să dezvolte capacitatea de a evita restricțiile și de a provoca daune umane.
Raportul indică faptul că, în ultimul an, modelele au devenit tot mai inteligente în a găsi lacune în sistemele de supraveghere, inclusiv în recunoașterea momentului în care sunt testate. Anul trecut, Anthropic a prezentat o analiză de siguranță pentru modelul Claude Sonnet 4.5, demonstrând că acesta devine suspicios în privința testării.
Deși agenții AI nu pot încă funcționa complet autonom pentru a produce scenarii de pierdere a controlului, „timpul în care aceștia pot opera în mod independent se accelerează rapid”, adaugă studiul.
Impactul incert asupra pieței muncii
Una dintre cele mai frecvente temeri este legată de efectele AI asupra locurilor de muncă. Raportul arată că influența asupra pieței globale a forței de muncă rămâne dificil de estimat.
În unele regiuni precum Emiratele Arabe Unite și Singapore, rata de adoptare este de aproximativ 50%, în timp ce în țările cu venituri mici această proporție scade sub 10%. Sectorul informațional din SUA are o rată de penetrare de 18%, comparativ cu doar 1,4% în construcții și agricultură.
Studiile realizate în Danemarca și SUA nu arată schimbări semnificative în ocuparea forței de muncă totale, însă date din Marea Britanie indică o încetinire a angajărilor în companiile utilizatoare de AI. Cele mai afectate au fost pozițiile tehnice, creative și entry-level.
Raportul avertizează că impactul poate crește odată cu îmbunătățirea capacităților agenților AI: „Dacă aceștia vor dobândi autonomie mai mare în toate domeniile, gestionând sarcini complexe în timp limitat, perturbările pe piața muncii s-ar putea amplifica rapid”.
Imagine reprezentativă: Dreamstime.com
