Intelligenza Artificiale

Sundar Pichai promette che gli “errori inaccettabili” di Gemini saranno corretti

L’amministratore delegato di Google Sundar Pichai in una nota ha affrontato la questione delle immagini storicamente false prodotte da Gemini attraverso l’intelligenza artificiale. Immagini che, circolate rapidamente sui social network, nelle scorse settimane hanno provocato aspre polemiche e scatenato dure reazioni sui media. Pichai ha definito le problematiche emerse “inaccettabili” nella nota, che è stata diffusa da Semafor e confermata dall’azienda di Mountain View.

Immagine | EPA/JOHN G. MABANGLO – cryptohack.it

Le parole di Sundar Pichai

“So che alcune delle sue elaborazioni hanno offeso i nostri utenti e hanno mostrato segni di pregiudizio – ha detto Pichai riferendosi a Gemini -. Per essere chiari, questo è completamente inaccettabile e abbiamo fatto un errore”, ha ammesso Pichai aggiungendo che “I nostri team sono al lavoro in questo momento affrontare queste problematiche” e che “Stiamo già vedendo un sostanziale miglioramento su una vasta gamma di richieste”. “Nessuna intelligenza artificiale è perfetta, soprattutto in questa fase emergente dello sviluppo del settore, ma sappiamo che l’asticella è alta per noi e continueremo a lavorarci per tutto il tempo necessario. Inoltre verificheremo quello che è successo e ci assicureremo di sistemare l’errore su vasta scala”, ha concluso Pichai.

Lo stop alla generazione di immagini

Google ha ammesso pubblicamente l’errore lo scorso 21 febbraio con un post su X, attraverso cui ha allo stesso tempo annunciato che la generazione di immagini di persone tramite intelligenza artificiale su Gemini sarebbe stata per il momento interrotta, in attesa del rilascio di una nuova versione riveduta e corretta. “Lavoreremo per migliorare l’intelligenza artificiale di Gemini ma è concepito come uno strumento di creatività e produttività e potrebbe non essere sempre affidabile, soprattutto quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti scottanti. Commetterà errori”, ha sottolineato qualche giorno dopo sul blog ufficiale dell’azienda Prabhakar Raghavan, senior vice president di Google.

Le polemiche

“Tre settimane fa, abbiamo lanciato una nuova funzione di generazione di immagini per l’app di conversazione Gemini (prima nota come Bard), che comprendeva la possibilità di creare immagini di persone – ha spiegato Raghavan -. È chiaro che questa funzione ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il feedback degli utenti e ci dispiace che la nuova funzione non abbia funzionato a dovere”.

Alcuni problemi con la creazione di immagini mediante AI con Gemini – https://gemini.google.com/ – Cryptohack.it

Eccesso di inclusività

La nuova funzione “è stata ottimizzata per garantire che non facesse gli errori che abbiamo visto in passato con la tecnologia di generazione di immagini: ad esempio la creazione di contenuti violenti o sessualmente espliciti, o con persone reali”, ha reso noto ancora il manager. “E siccome i nostri utenti provengono da tutto il mondo, vogliamo che funzioni bene per tutti”, così facendo però il modello di intelligenza artificiale ha “compensato eccessivamente, portando a immagini imbarazzanti e sbagliate” da un lato, mentre dall’altro lato “è diventato molto più cauto di quanto volessimo e si è rifiutato del tutto di rispondere ad alcune richieste”, giudicate erroneamente come “sensibili”.

“Come abbiamo detto fin dall’inizio – conclude – le ‘allucinazioni’ sono una sfida nota per tutti i modelli di intelligenza artificiale. Non era nostra intenzione creare foto solo con un gruppo di etnie o fare errori storici. Posso promettere che continueremo ad agire ogni volta che identifichiamo un problema ma non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o offensivi. L’intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile”.

Benedetta Leardini

Recent Posts

Banche, Colombani confermato alla guida di First Cisl

Roma, 13 giugno 2025 – Nel corso del recente Congresso nazionale della First Cisl, Riccardo…

3 giorni ago

OpenAI posticipa il lancio del nuovo modello open-weights: atteso entro fine estate

Milano, 12 giugno 2025 – Il lancio del nuovo modello di intelligenza artificiale di OpenAI,…

4 giorni ago

Android 16 è disponibile sui dispositivi Pixel: le novità introdotte

La feature più rilevante di Android 16 è la modalità "Protezione Avanzata", pensata per utenti…

5 giorni ago

L’AI di Google sta cambiando il traffico online: i siti di news sono sempre meno visitati

L'AI sta cambiando anche il traffico su Internet: ecco come l'intelligenza di Google sta "affossando"…

6 giorni ago

Qualcomm punta forte sull’IA: acquisita Alphawave per 2,4 miliardi di dollari

L'operazione mira a potenziare la tecnologia per l'intelligenza artificiale e si completa nel primo trimestre…

1 settimana ago

Inquinamento e AI: ecco perché l’intelligenza artificiale fa aumentare le emissioni

Le emissioni di carbonio indirette di quattro principali aziende di intelligenza artificiale sono aumentate del…

1 settimana ago