
I modelli di AI più potenti sono quelli più inclini alle allucinazioni | Pixabay @Vertigo3d - Cryptohack
Le AI moderni presentano problemi di allucinazioni sempre più evidenti. Un’indagine del New York Times ha sollevato interrogativi sui modelli di OpenAI, Google e DeepSeek

Il dibattito sulle allucinazioni delle intelligenze artificiali ha guadagnato nuovo vigore, specialmente dopo un’indagine condotta dal New York Times, che ha sollevato interrogativi fondamentali sulla relazione tra potenza dei modelli AI e la loro propensione a generare informazioni errate. I modelli di punta sviluppati da aziende come OpenAI, Google e DeepMind, nonostante la loro capacità di elaborare enormi quantità di dati, sembrano essere caratterizzati da un tasso crescente di errori nei risultati.
Tassi di allucinazione nei modelli AI
Recenti test condotti da OpenAI hanno rivelato che il modello o3 ha mostrato allucinazioni nel 33% dei casi durante il test ‘PersonQA’, un quiz basato su personaggi pubblici. Questo valore è più del doppio rispetto al tasso di allucinazione del precedente modello o1. Ancora più preoccupante è il caso del modello o4-mini, il quale ha mostrato un tasso di allucinazione che arriva fino al 48%. Tali percentuali indicano che, per alcune applicazioni, questi modelli potrebbero risultare non solo inaffidabili, ma addirittura dannosi.
Cause delle allucinazioni
La comunità scientifica non ha ancora individuato con certezza le cause di questo fenomeno. Tuttavia, alcuni esperti, come Emily Bender e Yann LeCun, hanno suggerito che le allucinazioni siano inevitabili, essendo intrinseche all’architettura degli LLM (modelli di linguaggio di grandi dimensioni). Anche Sam Altman, CEO di OpenAI, ha descritto le allucinazioni come “caratteristiche” piuttosto che meri inconvenienti, sottolineando la complessità del problema.
Nuovi approcci per ridurre le allucinazioni
Per contrastare questo trend preoccupante, un team di ricercatori dell’Università di Oxford ha recentemente proposto un nuovo metodo per ridurre le allucinazioni nei modelli AI. Questo approccio si concentra sull’ottimizzazione della formazione dei modelli, cercando di migliorare la loro capacità di distinguere tra informazioni corrette e errate. I risultati preliminari sembrano promettenti, ma è chiaro che la strada per lo sviluppo di AI più affidabili è ancora lunga e irta di sfide.
In un contesto in cui l’adozione delle tecnologie AI è in continua espansione, è fondamentale continuare a esplorare le dinamiche alla base delle allucinazioni, affinché i futuri modelli possano non solo essere più potenti, ma anche più precisi e affidabili.