Le AI moderni presentano problemi di allucinazioni sempre più evidenti. Un’indagine del New York Times ha sollevato interrogativi sui modelli di OpenAI, Google e DeepSeek
Il dibattito sulle allucinazioni delle intelligenze artificiali ha guadagnato nuovo vigore, specialmente dopo un’indagine condotta dal New York Times, che ha sollevato interrogativi fondamentali sulla relazione tra potenza dei modelli AI e la loro propensione a generare informazioni errate. I modelli di punta sviluppati da aziende come OpenAI, Google e DeepMind, nonostante la loro capacità di elaborare enormi quantità di dati, sembrano essere caratterizzati da un tasso crescente di errori nei risultati.
Recenti test condotti da OpenAI hanno rivelato che il modello o3 ha mostrato allucinazioni nel 33% dei casi durante il test ‘PersonQA’, un quiz basato su personaggi pubblici. Questo valore è più del doppio rispetto al tasso di allucinazione del precedente modello o1. Ancora più preoccupante è il caso del modello o4-mini, il quale ha mostrato un tasso di allucinazione che arriva fino al 48%. Tali percentuali indicano che, per alcune applicazioni, questi modelli potrebbero risultare non solo inaffidabili, ma addirittura dannosi.
La comunità scientifica non ha ancora individuato con certezza le cause di questo fenomeno. Tuttavia, alcuni esperti, come Emily Bender e Yann LeCun, hanno suggerito che le allucinazioni siano inevitabili, essendo intrinseche all’architettura degli LLM (modelli di linguaggio di grandi dimensioni). Anche Sam Altman, CEO di OpenAI, ha descritto le allucinazioni come “caratteristiche” piuttosto che meri inconvenienti, sottolineando la complessità del problema.
Per contrastare questo trend preoccupante, un team di ricercatori dell’Università di Oxford ha recentemente proposto un nuovo metodo per ridurre le allucinazioni nei modelli AI. Questo approccio si concentra sull’ottimizzazione della formazione dei modelli, cercando di migliorare la loro capacità di distinguere tra informazioni corrette e errate. I risultati preliminari sembrano promettenti, ma è chiaro che la strada per lo sviluppo di AI più affidabili è ancora lunga e irta di sfide.
In un contesto in cui l’adozione delle tecnologie AI è in continua espansione, è fondamentale continuare a esplorare le dinamiche alla base delle allucinazioni, affinché i futuri modelli possano non solo essere più potenti, ma anche più precisi e affidabili.
La scienza cerca da anni un metodo per decifrare i versi animali, e ora potremmo…
Google ha identificato un nuovo malware chiamato 'Lostkeys', legato al gruppo di hacker Cold River…
L'intelligenza artificiale sta trasformando radicalmente anche l'industria aerospaziale, come emerso durante il road show 'Ai…
Il legale di Musk, Marc Toberoff, sostiene che OpenAI continua a sviluppare un'intelligenza artificiale closed-source…
Apple sta collaborando con Anthropic per sviluppare una nuova piattaforma di programmazione assistita da intelligenza…
TikTok multata: pronto il ricorso dell’azienda, cambiate le misure di sicurezza La Commissione irlandese per…