Interzisă în toate magazinele din Marea Britanie, o femeie acuzată pe nedrept de furt de inteligența artificială

o-femeie-a-fost-acuzata-pe-nedrept-de-furt-de-inteligenta-artificiala-si-interzisa-in-toate-magazinele-din-marea-britanie

O femeie a fost acuzată pe nedrept de furt de inteligența artificială și interzisă în toate magazinele din Marea Britanie

O femeie din Marea Britanie a suferit un incident grav după ce un sistem de recunoaştere facială alimentat de inteligență artificială a identificat-o greşit drept hoţă. Fără să fi comis vreo infracţiune, a fost interzisă în toate magazinele unei reţele importante de comerţ cu amănuntul din Regatul Unit.

Acuzație incorectă a unui algoritm

În mai 2025, o locuitoare din Manchester a vizitat un magazin Home Bargains. Angajaţii au solicitat-o imediat să părăsească magazinul, fără nicio explicație. Ulterior, i s-a recomandat să contacteze furnizorul sistemului de recunoaştere facială, folosit de reţeaua de magazine.

În luna următoare, incidentul a avut loc într-o altă locaţie. A fost întâmpinată de personalul de securitate şi escortată afară fără explicaţii. Nedorind să accepte situaţia, a încercat să afle motivul. Răspunsul a fost şocant: sistemul facial o identificase ca fiind responsabilă de furtul unor produse din magazinul Home Bargains din retailerul respectiv.

Fără nicio şansă de a se apăra sau de a explica situaţia, algoritmul a considerat-o vinovată şi a marcat-o drept „persoană de evitat” în toate locațiile reţelei.

Remedierea situației și reacții

După plângeri repetate, dovezi clare privind cumpărăturile legale şi presiune asupra firmei care furnizează sistemul de recunoaştere facială, femeia a fost exonerată. În final, Home Bargains a renunțat la colaborarea cu furnizorul de inteligență artificială ca răspuns la acest incident.

Acest caz nu constituie un incident izolat. În 2024, o altă femeie britanică a suferit un tratament similar în urma unei identificări eronate de către acelaşi sistem. Cu toate acestea, sistemul de recunoaştere facială este încă folosit pe scară largă, inclusiv de către diverse autorități.

Faptul scoate în evidenţă vulnerabilitățile identificării faciale şi algoritmilor. În lipsa controlului uman, astfel de sisteme pot duce la consecințe negative importante asupra vieților oamenilor. Chiar dacă este promovată ca o tehnologie avansată, inteligenţa artificială facială este adesea vulnerabilă la erori, mai ales atunci când datele de antrenament sunt incomplete sau algoritmii nu sunt optimizaţi.

Extinderea globală și dilemele etice

Tehnologia de recunoaştere facială este utilizată pe scară largă în Asia, inclusiv în China şi Japonia, unde este integrată în sistemele de transport public şi în mediile de lucru. În UE, utilizarea ei este mai strict reglementată, permiţând aplicarea doar în situaţii excepţionale de securitate. Francezii, de exemplu, testează camere „inteligente” pentru monitorizarea comportamentelor, fără implementări de recunoaştere facială.

Experții avertizează că astfel de experimente cresc riscul implementării mai largi şi mai puțin controlate a acestei tehnologii.

Cazuri precum cel din Manchester ar trebui să reprezinte un semnal de alarmă. Inteligența artificială este un instrument viabil, însă când devine judecător fără intervenție umană, riscă să transforme greşelile în abuzuri.

Exit mobile version