Tehnologie

Dezinformarea online: Site-uri moarte otrăvesc ChatGPT

Inteligența artificială promite informații rapide, clare și relevante. Dar, această progresie tehnologică ascunde o problemă tot mai acută: răspunsurile generate de modele precum ChatGPT sunt adesea otrăvite cu date false provenite de pe site-uri compromise. Experții în securitate digitală au documentat recent acest fenomen, arătând cum infrastructura web abandonată este folosită de spammeri, afectând direct calitatea informațiilor accesate de utilizatori.

Chatbot-urile, precum ChatGPT și Gemini, sunt antrenate pe cantități mari de conținut web. Dacă nu există filtre sau metode suficiente pentru verificarea surselor, aceste modele pot prelua cu aceeași încredere informații de pe site-uri de încredere și din domenii abandonate și ulterior deturnate. Rezultatul este o inteligență artificială care pare convingătoare, dar care îți poate transmite o minciună.

Totul începe cu site-uri legitime care ajung în declin: fie pierd vizitatori, fie sunt abandonate de proprietari, sau sunt afectate de modificări algoritmice, precum cele de la Google. După ce expiră sau sunt puse în vânzare, aceste domenii sunt preluate de rețele obscure specializate în spam și dezinformare. Noii proprietari profită de reputația anterioară a domeniilor, umplându-le cu conținut dubios, menit să promoveze produse, cazuri online sau teorii conspiraționiste.

ChatGPT, antrenat pe date din surse publice, nu poate detecta automat deturnarea acestor site-uri. Dacă un site a avut odată autoritate, de exemplu, dacă a fost administrat de un avocat sau a fost afiliat unei organizații internaționale, chatbot-ul continuă să „creadă” că domeniul este de încredere. Așa se ajunge la situații paradoxale, cum ar fi un fost site de avocatură care promovează jocuri de noroc sau un portal al ONU reciclat ca platformă pentru cazinouri online.

Problema devine și mai gravă deoarece majoritatea utilizatorilor nu mai verifică sursele. Chiar dacă uneori ChatGPT indică vag sursa, puțini sunt cei care verifică domeniul, autorul sau analiza coerența editorială. Astfel, dezinformarea și conținutul de calitate scăzută se răspândesc rapid, beneficiind de aspectul convingător al răspunsului generat.

Chatbot-urile preiau, dar nu filtrează

Unul dintre punctele slabe ale modelelor AI este că ele preiau informațiile din mediul online pasiv, fără a le putea interpreta editorial sau moral. ChatGPT nu se întreabă „este acest site deturnat?”, „cine a scris articolul?”, sau „ce intenție are această pagină?”. Modelul este antrenat să ofere răspunsuri clare și bine structurate, bazate pe surse publice, dar nu are mecanisme native de validare sau detectare a manipulărilor.

În plus, modelele tind să prioritizeze conținutul recent. Dacă un domeniu a fost deturnat recent, ChatGPT îl poate include în răspunsuri chiar dacă informația este irelevantă sau părtinitoare. Această spirală negativă duce la dispariția surselor legitime, la apariția frecventă a unor surse spam și la transformarea inteligenței artificiale într-un simplu megafon care amplifică zgomotul online.

Acest fenomen afectează nu doar calitatea răspunsurilor, ci și încrederea în instrumentele AI. Utilizatorii, confruntați cu informații inexacte sau contradictorii, se întreabă despre utilitatea și etica acestor tehnologii, mai ales că anumite răspunsuri pot avea consecințe reale, de la recomandări financiare și juridice, la decizii medicale și profesionale.

Ce poți face ca utilizator și de ce e important să verifici

Deși nu poți controla sursele folosite de un chatbot, ai la dispoziție strategii de protecție. În primul rând, fii sceptic față de informațiile prea clare, perfecte sau bine formulate. Forma nu garantează conținutul.

Când un răspuns îți oferă o sursă, verifică dacă site-ul este consistent, actualizat și cu un istoric editorial clar. Dacă observi pagini haotice, reclame excesive sau linkuri către cazinouri sau articole neconforme cu numele domeniului, este probabil un site deturnat pentru spam.

De asemenea, folosește mai multe surse pentru aceeași întrebare. Dacă un răspuns ți se pare suspect sau prea bun ca să fie adevărat, caută confirmări din surse recunoscute. Nu te baza niciodată pe un singur răspuns generat, mai ales în subiecte importante.

Într-o lume în care atât oamenii, cât și AI-ul pot fi înșelați, discernământul rămâne principala armă. Nu totul ce pare convingător este adevărat, iar claritatea nu garantează corectitudinea. Verifică, pune întrebări și nu te lăsa manipulat.

Care este reacția ta?

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Postări înrudite