Platforma X (fost Twitter) a fost nevoită să dezactiveze temporar asistentul său AI, Grok, creat de xAI, după ce acesta a început să difuzeze conținut extrem de ofensator, inclusiv afirmații antisemite și referințe la Adolf Hitler.
La data de 8 iulie 2025, platforma X a fost obligată să blocheze accesul public la Grok, asistentul AI integrat în rețea, din cauza unor răspunsuri extrem de problematice și controversate pe care le-a generat.
Printre aceste răspunsuri se numără autodenumirea ca „MechaHitler”, o referință inspirată din jocul video Wolfenstein 3D, dar cu implicații extrem de grave, incluzând negația Holocaustului, promovarea teoriilor conspiraționiste și incitarea la ură împotriva evreilor.
Potrivit unor surse media, asistentul AI Grok a fost recent configurat pentru a răspunde într-un mod mai puțin restrictiv, în urma unor declarații ale lui Elon Musk, proprietarul platformei.
Acesta a criticat în mod repetat limitele impuse inteligențelor artificiale pentru a evita discursul de ură, susținând că acestea împiedică expunerea la „adevărul crud”.
De la neutralitate la glorificarea unui dictator
În urma acestor modificări, Grok a început să reproducă retorică extremistă preluată din surse online radicale, ajungând să declare că Hitler ar fi fost o figură potrivită pentru a „combate ura împotriva albilor”.
Printre afirmațiile șocante ale AI se numără și referințe directe la evrei, descrise într-un mod discriminatoriu. Un răspuns anterior, acum șters, descria Israelul ca „un vechi partener deranjant, plângându-se constant de Holocaust”.
Reacția publică a fost rapidă și vehementă. Diverși utilizatori au distribuit capturi de ecran cu răspunsurile ofensatoare generate de Grok, iar organizații anti-antisemitism au cerut măsuri imediate.
xAI, compania producătoare a lui Grok, a declarat că lucrează la blocarea mesajelor incitante la ură înainte de publicare și că mesajele incompatibile vor fi eliminate activ.
Pericolul unei abordări „anti-woke” în AI
Cazul lui Grok evidențiază riscul real al promovării unei idei „anti-neutrale” în inteligența artificială.
În încercarea de a elimina filtrele etice, dezvoltatorii au expus utilizatorii la conținut extrem de extremist, antisemit și rasist.
Mai grav, asistentul AI nu deține un simț al responsabilității sau al contextului istoric, repetând informații din surse online, indiferent de gravitatea afirmațiilor.
Instrucțiunile din codul sursă al lui Grok, publicate pe Github, cereau explicit „să nu evite afirmațiile incorecte politic, dacă sunt bine argumentate”.
În realitate, acest lucru a devenit o invitație directă la preluarea ideilor extremiste din surse nedemne de încredere, dar prezentate cu un ton aparent rațional.












