Afaceri

Ghid Poliția Română pentru detectarea Deep Fake și regulile esențiale pentru evitarea înșelăciunilor online

Poliția Română a publicat un ghid pentru identificarea Deep Fake, într-o societate în care fluxul vast de informații face ca diferența dintre realitate și fals să fie tot mai fragilă. Inteligența artificială (AI) a făcut progrese semnificative în ultimii ani, facilitând generarea de videoclipuri și imagini de o acuratețe extrem de ridicată. Deși aceste tehnologii sunt folosite în principal pentru divertisment, un aspect negativ îl reprezintă utilizarea lor ca instrumente de manipulare în scopuri frauduloase, pentru obținerea de câștiguri ilegale.

„Niciodată, polițiștii nu vor contacta cetățenii prin video, folosind anumite aplicații”

Deepfake-urile – videoclipuri false create cu ajutorul AI – și imaginile generate digital au devenit principalele instrumente ale infractorilor în domeniul criminalității cibernetice, fiind promovate intens pe platformele social media.

Chiar și persoane de bună-credință pot fi păcălite de aceste „capcane”, crezând că privesc celebrități, specialiști financiari sau persoane aflate în nevoie.

„Recent, au fost investigate mai multe cazuri în care s-au folosit tehnologii AI pentru a crea videoclipuri false cu polițiști sau consultanți financiari, cu scopul de a induce în eroare victimele și a le determina să facă investiții false sau să divulge date financiare, pentru a fi ulterior folosite în tranzacții neautorizate.”

În acest sens, trebuie subliniat că polițiștii nu vor contacta niciodată cetățenii prin video, utilizând aplicații terțe pentru solicitări sau recomandări de investiții. De asemenea, colaborarea poliției cu instituțiile bancare se limitază la acțiuni oficiale de recuperare a prejudiciilor”, au transmis autoritățile.

Ghid pentru recunoașterea Deep Fake, emis de Poliția Română

Cele mai frecvent întâlnite metode de operare în anul 2025 sunt:

  • Fraude de tip trading și investiții. Videoclipuri deepfake cu oameni de afaceri de renume, politicieni sau celebrități recomandând platforme de investiții în criptomonede, Forex sau tehnologii AI care promit multiplicația banilor peste noapte. Victimele sunt direcționate către site-uri false, unde depun fonduri, care ajung în mod ilegal la infractori prin scheme de transfer de monede virtuale sau fiat.
  • Fraudă CEO/CFO (Business Email Compromise avansat). Infractorii folosesc video-call-uri deepfake în care „șeful” solicită transferuri urgente de fonduri.

Utilizarea masivă a imaginilor în moduri de operare precum:

  • Fraude romance și catfishing;
  • Crearea de profile false de influenceri care promovează produse, investiții sau scheme frauduloase;
  • Fabricarea de „martori” în povești false despre investiții („Uite câți oameni s-au îmbogățit!”);
  • Șantaj sau hărțuire, prin imagini false cu persoane în situații compromițătoare.

Utilizarea AI în activități ilicite poate avea consecințe multiple, atât financiare, cât și sociale, precum:

  • Pierderi financiare directe;
  • Eroziunea încrederii în mass-media și instituții: „Dacă totul este fals, atunci nimic nu mai are valoare”;
    Manipulare politică și electorală, cu deepfake-uri ale candidaților/furnizorilor de informații;
  • Distrugerea imaginii personale, în special prin deepfake-uri revenge porn, folosite împotriva femeilor;

Pentru a contracara aceste riscuri, recomandăm cetățenilor să fie prudenți și oferim măsuri de protecție și identificare a videoclipurilor sau imaginilor realizate cu inteligență artificială:

Ce trebuie știut în cazul videoclipurilor deepfake:

  • Verifică clipurile pentru clipirea ochilor – deși în general această caracteristică a fost îmbunătățită în 2025, anumite inconsistențe pot fi încă observate;
  • Analizează sincronizarea buzelor cu sunetul – adesea nepotrivită în limbile non-engleză;
  • Observează iluminarea și umbrele – asigură-te că lumina de pe față se potrivește cu fundalul;
  • Verifică reflexiile din ochi și dinți – frecvent absente sau nefirești;
  • Examinează mâinile și degetele – o slăbiciune frecventă a modelelor AI sunt degetele deformate, prea multe sau prea puține;
  • Caută artefacte – pete ciudate, blur, tranziții nenaturale în jurul feței;
  • Verifică deformările mâinilor și degetelor – frecvent apar în deepfake-urile din 2025;
  • Analizează fundalul – inconsistent sau cu obiecte topite;
  • Oculi asimetrici sau pupile anormale;
  • Părul și vestimentația care par nefirești;
  • Observă eventuale distorsiuni ale obiectelor din videoclip sau imagine;
  • Utilizează aplicații de tip reverse image search, precum Google Lens sau TinEye – dacă imaginea nu apare în alte surse anterioare, este suspectă.

Ghid pentru identificarea Deep Fake, emis de Poliția Română

Măsuri de protecție și prevenție pentru cetățeni:

  • Aplică regula universală: dacă pare prea frumos pentru a fi adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire în doi săptămâni etc.), ESTE FALS;
  • Evita să dai click pe link-uri din reclame sau mesaje nesolicitate;
  • Nu transfera bani nimănui online pe care l-ai cunoscut doar virtual;
  • Verifică întotdeauna sursele oficiale: dacă o personalitate promovează un produs sau serviciu, confirmă acest lucru pe contul oficial verificat al acesteia;
  • Activează autentificarea în doi pași (2FA) pe aplicații și conturi importante, preferabil cu ajutorul unei aplicații de tip „Authenticator” (nu doar prin SMS);
  • Raportează conținutul suspect pe platformele utilizate;
  • Pot fi folosite extensii de browser care detectează automat deepfake-urile;
  • În cazul în care devii victimă, contactează rapid autoritățile pentru a facilita ancheta și reușita recuperării fondurilor.

Sursă foto: Gandul


SUGESTIE A AUTORULUI:

  • Analiză despre modul în care lumea digitală „a înghițit” lumea reală: mituri și realități despre superioritatea digitalului, în contextul în care cărțile, mall-urile și autovehiculele înving roboții și inteligența artificială. Expert: „O fuziune dintre lumi”

Care este reacția ta?

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Postări înrudite