Intelligenza Artificiale

I modelli AI più potenti sarebbero quelli più inclini alle “allucinazioni”: i risultati dello studio

Le AI moderni presentano problemi di allucinazioni sempre più evidenti. Un’indagine del New York Times ha sollevato interrogativi sui modelli di OpenAI, Google e DeepSeek

I modelli di AI più potenti sono quelli più inclini alle allucinazioni | Pixabay @Vertigo3d – Cryptohack

 

Il dibattito sulle allucinazioni delle intelligenze artificiali ha guadagnato nuovo vigore, specialmente dopo un’indagine condotta dal New York Times, che ha sollevato interrogativi fondamentali sulla relazione tra potenza dei modelli AI e la loro propensione a generare informazioni errate. I modelli di punta sviluppati da aziende come OpenAI, Google e DeepMind, nonostante la loro capacità di elaborare enormi quantità di dati, sembrano essere caratterizzati da un tasso crescente di errori nei risultati.

Tassi di allucinazione nei modelli AI

Recenti test condotti da OpenAI hanno rivelato che il modello o3 ha mostrato allucinazioni nel 33% dei casi durante il test ‘PersonQA’, un quiz basato su personaggi pubblici. Questo valore è più del doppio rispetto al tasso di allucinazione del precedente modello o1. Ancora più preoccupante è il caso del modello o4-mini, il quale ha mostrato un tasso di allucinazione che arriva fino al 48%. Tali percentuali indicano che, per alcune applicazioni, questi modelli potrebbero risultare non solo inaffidabili, ma addirittura dannosi.

Cause delle allucinazioni

La comunità scientifica non ha ancora individuato con certezza le cause di questo fenomeno. Tuttavia, alcuni esperti, come Emily Bender e Yann LeCun, hanno suggerito che le allucinazioni siano inevitabili, essendo intrinseche all’architettura degli LLM (modelli di linguaggio di grandi dimensioni). Anche Sam Altman, CEO di OpenAI, ha descritto le allucinazioni come “caratteristiche” piuttosto che meri inconvenienti, sottolineando la complessità del problema.

Nuovi approcci per ridurre le allucinazioni

Per contrastare questo trend preoccupante, un team di ricercatori dell’Università di Oxford ha recentemente proposto un nuovo metodo per ridurre le allucinazioni nei modelli AI. Questo approccio si concentra sull’ottimizzazione della formazione dei modelli, cercando di migliorare la loro capacità di distinguere tra informazioni corrette e errate. I risultati preliminari sembrano promettenti, ma è chiaro che la strada per lo sviluppo di AI più affidabili è ancora lunga e irta di sfide.

In un contesto in cui l’adozione delle tecnologie AI è in continua espansione, è fondamentale continuare a esplorare le dinamiche alla base delle allucinazioni, affinché i futuri modelli possano non solo essere più potenti, ma anche più precisi e affidabili.

Redazione

Recent Posts

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

5 giorni ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

2 settimane ago

La Difesa degli USA chiude un accordo con OpenAI: l’intelligenza artificiale al servizio della sicurezza nazionale

La Difesa degli Stati Uniti ha deciso di chiudere un accordo con OpenAI per 200…

2 settimane ago

Cybersecurity, cresce il numero degli attacchi in Italia: sono 165 al mese

In Italia preoccupano gli attacchi informatici: i numeri sono raddoppiati rispetto al 2023 e cresce…

2 settimane ago

Banche, Colombani confermato alla guida di First Cisl

Roma, 13 giugno 2025 – Nel corso del recente Congresso nazionale della First Cisl, Riccardo…

3 settimane ago

OpenAI posticipa il lancio del nuovo modello open-weights: atteso entro fine estate

Milano, 12 giugno 2025 – Il lancio del nuovo modello di intelligenza artificiale di OpenAI,…

3 settimane ago