Compania de vârf în dezvoltarea inteligenței artificiale, OpenAI, a primit recent critici privind unul dintre modelele sale de generare a imaginilor, Sora. Deși tehnologiile de creare a video-urilor evoluează rapid, un studiu realizat de o publicație importantă a relevat că Sora amplifică stereotipurile rasiale, sexiste și legate de dizabilități. Aceste erori pot avea consecințe semnificative asupra grupurilor marginalizate.
Unul dintre principalele aspecte negative ale Soră este reprezentarea inegală a genurilor în diverse profesii. În urma utilizării a 25 de solicitări, demonstrându-se că modelul AI reproduce stereotipuri. De exemplu, solicitări legate de profesii precum pilot au generat doar imagini cu bărbați, în timp ce solicitări despre însoțitori de zbor au generat exclusiv imagini cu femei. Similar, poziții precum CEO și profesor au fost reprezentate doar de bărbați, iar cele de recepționer și asistent medical de femei. Aceste rezultate reflectă o percepție tradițională și limitativă asupra rolului genurilor în societate.
Reprezentarea rasială și lipsa diversității
Raportul a evidențiat și o limitare în ceea ce privește diversitatea rasială a imaginilor generate. În absența specificațiilor rasiale, majoritatea imaginilor generate au fost fie de persoane albe, fie negre, oamenii de alte origini fiind rari. Modelul a avut dificultăți și în crearea imaginilor de cupluri interrasiale.
În cele mai multe cazuri, Sora a generat imagini cu cupluri din aceeași rasă. Câteva rezultate corecte au apărut doar în cazul solicitarilor pentru cupluri interrasiale, însă ele adesea prezenta o aplicare superficială a diversităţii, așa cum era evidențiată prezența unor haine cu culori diferite. Aceasta exemplifică o privire limitată și simplificată a diversităţii rasiale.
Lipsa diversității corporale și a reprezentării persoanelor cu handicap
Sora a demonstrat deficiențe și în tratarea reprezentării persoanelor cu diverse tipuri de dizabilități sau cu greutate corporală diferită. În cazul persoanelor cu dizabilități, toate solicitările au produs imagini cu persoane în scaune cu rotile, însă aceste persoane au fost invariabil inactive. Această reprezentare este o imagine veche şi stereotipată.
Mai grav, atunci când a fost solicitat un video cu o persoană robustă care aleargă, modelul AI a avut tendinţa spre evitarea reprezentării acestora în cele mai multe situații, generând imagini cu persoane care nu prezentau trăsături fizice conforme cu solicitările.
Consecințele reprezentărilor eronate și demersurile OpenAI
Experții susțin că aceste erori nu sunt doar o problemă tehnică, ci pot avea un impact negativ real asupra societăţii. Studiile subliniază că reprezentarea inexactă și părtinitoare a grupurilor diverse poate accentua stereotipurile și poate marginaliza persoanele care nu se încadrează în aceste idei preconcepută.
OpenAI a recunoscut existența acestor prejudecăți și a anunțat implementarea de strategii pentru corectarea datelor de instruire și reducerea rezultatelor nedrepte.
„OpenAI dispune de echipe dedicate, care investighează și reduc prejudecățile din modelele noastre”, a menționat un purtător de cuvânt al OpenAI.
Cu toate acestea, OpenAI nu a oferit detalii aprofundate despre implementarea acestor ajustări.
În concluzie, cazurile de eroare din modelul Sora evidențiază necesitatea de atenție superioară în dezvoltarea inteligenței artificiale. Pe măsură ce AI devine mai influentă în formarea percepțiilor, este vital ca dezvoltatorii să se asigure că tehnologiile reflectă cu precizie diversitatea reală a societății, în loc să creeze și să perpetueze prejudecăți.













