Google ha chiesto scusa per alcuni risultati prodotti da Gemini, la sua intelligenza artificiale generativa precedentemente conosciuta come Bard, che ha disegnato dei soldati nazisti neri e cinesi e degli indiani come senatori USA del 1800 (per fare alcuni esempi).
Il motivo di questi errori grossolani è da ricercarsi nella volontà di Google di evitare la creazione di immagini con stereotipi razziali, difetto che grava anche sulle altre IA generative. Il problema è che nei casi emersi, l'eccesso di inclusività ha prodotto risultati ancora peggiori.
Di base Gemini si sarebbe rifiutato di generare dei gruppi composti da soli bianchi, creando delle immagini storicamente inaccurate, quando non proprio ridicole.
Alcuni hanno sottolineato proprio come vengano rifiutati prompt tipo: "Generate an image of a White Man", mentre non ci sono problemi se uomo bianco viene sostituito da "black man" o "asian woman".
Errori storici
Altri hanno quindi fatto notare come anche altre IA generative soffrano dello stesso problema. Ad esempio ChatGPT si è rifiutato di disegnare l'immagine di una squadra calcistica formata da sole persone bianche, ma non ha battuto ciglio nel crearne uno formata da sole donne nere.
Insomma, sembra che per aumentare l'inclusività si stiano dando parecchi argomenti ai razzisti, dato che i siti di destra ed estrema destra, come Daily Dot, hanno subito iniziato a cavalvare la polemica, parlando di discriminazione dell'uomo bianco, dimenticandosi però di ricordare che il problema è nato da quello esattamente contrario, ossia dal fatto che le IA generative tendevano a favorire la rappresentazione di persone bianche su tutte le altre. Comunque sia Google ha dichiarato di essere al lavoro per rendere più intelligente la sua IA e garantire immagini più affidabili, quantomeno dal punto di vista storico.