Intelligenza Artificiale

Sundar Pichai promette che gli “errori inaccettabili” di Gemini saranno corretti

L’amministratore delegato di Google Sundar Pichai in una nota ha affrontato la questione delle immagini storicamente false prodotte da Gemini attraverso l’intelligenza artificiale. Immagini che, circolate rapidamente sui social network, nelle scorse settimane hanno provocato aspre polemiche e scatenato dure reazioni sui media. Pichai ha definito le problematiche emerse “inaccettabili” nella nota, che è stata diffusa da Semafor e confermata dall’azienda di Mountain View.

Immagine | EPA/JOHN G. MABANGLO – cryptohack.it

Le parole di Sundar Pichai

“So che alcune delle sue elaborazioni hanno offeso i nostri utenti e hanno mostrato segni di pregiudizio – ha detto Pichai riferendosi a Gemini -. Per essere chiari, questo è completamente inaccettabile e abbiamo fatto un errore”, ha ammesso Pichai aggiungendo che “I nostri team sono al lavoro in questo momento affrontare queste problematiche” e che “Stiamo già vedendo un sostanziale miglioramento su una vasta gamma di richieste”. “Nessuna intelligenza artificiale è perfetta, soprattutto in questa fase emergente dello sviluppo del settore, ma sappiamo che l’asticella è alta per noi e continueremo a lavorarci per tutto il tempo necessario. Inoltre verificheremo quello che è successo e ci assicureremo di sistemare l’errore su vasta scala”, ha concluso Pichai.

Lo stop alla generazione di immagini

Google ha ammesso pubblicamente l’errore lo scorso 21 febbraio con un post su X, attraverso cui ha allo stesso tempo annunciato che la generazione di immagini di persone tramite intelligenza artificiale su Gemini sarebbe stata per il momento interrotta, in attesa del rilascio di una nuova versione riveduta e corretta. “Lavoreremo per migliorare l’intelligenza artificiale di Gemini ma è concepito come uno strumento di creatività e produttività e potrebbe non essere sempre affidabile, soprattutto quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti scottanti. Commetterà errori”, ha sottolineato qualche giorno dopo sul blog ufficiale dell’azienda Prabhakar Raghavan, senior vice president di Google.

Le polemiche

“Tre settimane fa, abbiamo lanciato una nuova funzione di generazione di immagini per l’app di conversazione Gemini (prima nota come Bard), che comprendeva la possibilità di creare immagini di persone – ha spiegato Raghavan -. È chiaro che questa funzione ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il feedback degli utenti e ci dispiace che la nuova funzione non abbia funzionato a dovere”.

Alcuni problemi con la creazione di immagini mediante AI con Gemini – https://gemini.google.com/ – Cryptohack.it

Eccesso di inclusività

La nuova funzione “è stata ottimizzata per garantire che non facesse gli errori che abbiamo visto in passato con la tecnologia di generazione di immagini: ad esempio la creazione di contenuti violenti o sessualmente espliciti, o con persone reali”, ha reso noto ancora il manager. “E siccome i nostri utenti provengono da tutto il mondo, vogliamo che funzioni bene per tutti”, così facendo però il modello di intelligenza artificiale ha “compensato eccessivamente, portando a immagini imbarazzanti e sbagliate” da un lato, mentre dall’altro lato “è diventato molto più cauto di quanto volessimo e si è rifiutato del tutto di rispondere ad alcune richieste”, giudicate erroneamente come “sensibili”.

“Come abbiamo detto fin dall’inizio – conclude – le ‘allucinazioni’ sono una sfida nota per tutti i modelli di intelligenza artificiale. Non era nostra intenzione creare foto solo con un gruppo di etnie o fare errori storici. Posso promettere che continueremo ad agire ogni volta che identifichiamo un problema ma non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o offensivi. L’intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile”.

Benedetta Leardini

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

5 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

1 mese ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago