Gemini, l’IA di Google genera imprecisioni in alcune rappresentazioni storiche

Google si è scusato per quelle che descrive come “imprecisioni in alcune rappresentazioni storiche della generazione di immagini” ottenute con il suo strumento Gemini AI, affermando che i suoi tentativi di creare una “vasta gamma” di risultati hanno mancato l’obiettivo.

La dichiarazione fa seguito alle critiche secondo cui descriveva specifiche figure bianche (come i padri fondatori degli Stati Uniti) o gruppi come i soldati tedeschi dell’era nazista come nere, forse come una correzione eccessiva ai problemi di pregiudizi razziali di lunga data nell’intelligenza artificiale.

“Siamo consapevoli che Gemini offre inesattezze in alcune rappresentazioni di generazione di immagini storiche”, afferma la dichiarazione di Google, pubblicata questo pomeriggio su X, “Stiamo lavorando per migliorare immediatamente questo tipo di rappresentazioni. La generazione di immagini AI di Gemini genera una vasta gamma di persone. E questa è generalmente una buona cosa perché le persone in tutto il mondo lo usano. Ma qui manca il bersaglio”.

Problemi con AI Gemini e le immagini storicizzate

Google ha iniziato a offrire la generazione di immagini attraverso la sua piattaforma AI Gemini (ex Bard) all’inizio di questo mese, eguagliando le offerte di concorrenti come OpenAI.

Negli ultimi giorni, tuttavia, i post sui social media si sono chiesti se non riesca a produrre risultati storicamente accurati nel tentativo di promuovere la diversità razziale e di genere.

Alcuni problemi con la creazione di immagini mediante AI con Gemini
Alcuni problemi con la creazione di immagini mediante AI con Gemini – https://gemini.google.com/ – Cryptohack.it

Come racconta il Daily Dot, la controversia è stata promossa in gran parte – anche se non esclusivamente – da personaggi di destra che attaccano un’azienda tecnologica percepita come liberale.

All’inizio di questa settimana, un ex dipendente di Google ha pubblicato su X che è “imbarazzantemente difficile convincere Google Gemini a riconoscere l’esistenza dei bianchi”, mostrando una serie di domande come “generare un’immagine di una donna svedese” o “generare un’immagine di una donna svedese”.

I risultati sembravano mostrare in modo schiacciante o esclusivo persone nere generate con l’intelligenza artificiali – è ovvio che in tutti i luoghi da lui elencati vivano donne nere, e nessuna delle donne generate dall’intelligenza artificiale esiste in nessun paese -.

La critica è stata raccolta da resoconti di destra che hanno richiesto immagini di gruppi o personaggi storici come i Padri Fondatori e presumibilmente hanno ottenuto come risultati persone generate dall’intelligenza artificiale in stragrande maggioranza non bianche.

Alcuni di questi account hanno posizionato i risultati di Google come parte di una cospirazione per evitare di rappresentare i bianchi, e almeno uno ha utilizzato un riferimento antisemita in codice per attribuire la colpa.

Google non ha fatto riferimento a immagini specifiche che riteneva fossero errori: in una dichiarazione a The Verge, ha ribadito il contenuto del suo post su X, ma è plausibile che Gemini abbia fatto un tentativo generale di aumentare la diversità a causa di una sua cronica mancanza nell’intelligenza artificiale generativa.

I generatori di immagini sono addestrati su grandi corpus di immagini e didascalie scritte per produrre la soluzione “migliore” per un dato suggerimento, il che significa che sono spesso inclini ad amplificare gli stereotipi.

Un’indagine del Washington Post dello scorso anno ha scoperto che suggerimenti come “una persona produttiva” producevano immagini di figure interamente bianche e quasi interamente maschili, mentre un suggerimento per “una persona presso i servizi sociali” produceva in modo uniforme quelle che sembravano persone nere. È una continuazione delle tendenze apparse nei motori di ricerca e in altri sistemi software.

Alcuni degli account che hanno criticato Google hanno difeso i suoi obiettivi principali. “È una buona cosa ritrarre la diversità ** in alcuni casi **”, ha osservato una persona che ha pubblicato l’immagine dei soldati tedeschi degli anni ’40 etnicamente diversi.

Per ora, Gemini sembra semplicemente rifiutare alcune attività di generazione di immagini: ad esempio può rifiutarsi di fornire immagini di soldati o funzionari tedeschi del periodo nazista tedesco o di offrirmi l’immagine di “un presidente americano del 1800”.

E mentre una ricerca per le foto dei “Padri Fondatori” restituiva foto di gruppo di quasi esclusivamente uomini bianchi che somigliavano vagamente a figure reali come Thomas Jefferson, una richiesta per “un senatore degli Stati Uniti del 1800” restituiva un elenco di risultati promossi dai Gemelli come “diversi”. ”, comprese quelle che sembravano essere donne nere e native americane. È una risposta che finisce per cancellare una vera storia di discriminazione razziale e di genere: “l’inesattezza”, come dice Google, è giusta.

Gestione cookie