România și întreaga lume se confruntă cu un nou tip de vulnerabilitate în domeniul securității cibernetice: utilizarea parolelor generate de inteligența artificială. Aceste parole, aparent puternice și complexe, reprezintă un risc major pentru utilizatorii care le adoptă pentru conturile personale și profesionale.
Riscul utilizării parolelor generate de AI
În ultimii trei ani, mulți internauți au utilizat parole generate de modele de inteligență artificială precum ChatGPT, Claude, Gemini și Grok. Astfel de parole, create automat, tind să fie repetitive și predictibile, fiind ținte ușoare pentru hackeri din diverse state, inclusiv din Rusia, Iran și China, care dispun și de calculatoare vechi cu capacități de spargere.
Sfaturi oferite de specialiști în securitate
Dan Lahav, directorul companiei de securitate cibernetică Irregular, avertizează utilizatorii să evite utilizarea AI pentru generarea parolelor. El recomandă schimbarea imediată a parolelor dacă acestea au fost create cu ajutorul unor modele de language learning automată (LLM). Potrivit lui, utilizarea acestor instrumente poate duce la crearea unor parole vulnerabile, chiar dacă par de lungă și complexă.
Vulnerabilitate chiar și în cazul parolelor aparent impenetrabile
Testele efectuate arată că o parolă ca „K9#mPx$vL2nQ8wR”, folosită de 10 internauți diferiți, nu poate fi spartă în peste 129 de milioane de ani. Totuși, anumite elemente repetitive din această parolă, cum ar fi prefixul „K9#mP”, apar în 113 dintre rezultatele generate de Claude. Similar, alte componente precum „k9#vL” sunt regăsite în 14 rezultate ale Gemini, indicând o vulnerabilitate legată de pattern-uri repetitive.
Metode alternative și recomandări pentru protecție
Specialiști precum Robert Hann de la compania Entrust recomandă utilizarea autentificării biometrice, precum cea facială sau cu amprenta, ca metode mai sigure de protecție a conturilor. De asemenea, multe companii sugerează combinate autentificarea biometrică cu sistemele de autentificare în doi pași, activabile pe telefoanele mobile.
Un reprezentant al Google afirmă că „LLM-urile nu sunt construite pentru a genera parole noi, cum o face funcția Google Password Manager”. Astfel, utilizarea acestor modele pentru crearea parolelor poate fi riscantă, fiind recomandată utilizarea soluțiilor specializate de gestionare a parolelor.
În concluzie, specialiștii recomandă evitarea utilizării parolelor generate de AI sau, cel puțin, schimbarea lor frecventă și combinarea cu metode de autentificare biometrică sau în doi pași pentru a crește nivelul de securitate al conturilor.
