Intelligenza Artificiale

I modelli AI più potenti sarebbero quelli più inclini alle “allucinazioni”: i risultati dello studio

Le AI moderni presentano problemi di allucinazioni sempre più evidenti. Un’indagine del New York Times ha sollevato interrogativi sui modelli di OpenAI, Google e DeepSeek

I modelli di AI più potenti sono quelli più inclini alle allucinazioni | Pixabay @Vertigo3d – Cryptohack

 

Il dibattito sulle allucinazioni delle intelligenze artificiali ha guadagnato nuovo vigore, specialmente dopo un’indagine condotta dal New York Times, che ha sollevato interrogativi fondamentali sulla relazione tra potenza dei modelli AI e la loro propensione a generare informazioni errate. I modelli di punta sviluppati da aziende come OpenAI, Google e DeepMind, nonostante la loro capacità di elaborare enormi quantità di dati, sembrano essere caratterizzati da un tasso crescente di errori nei risultati.

Tassi di allucinazione nei modelli AI

Recenti test condotti da OpenAI hanno rivelato che il modello o3 ha mostrato allucinazioni nel 33% dei casi durante il test ‘PersonQA’, un quiz basato su personaggi pubblici. Questo valore è più del doppio rispetto al tasso di allucinazione del precedente modello o1. Ancora più preoccupante è il caso del modello o4-mini, il quale ha mostrato un tasso di allucinazione che arriva fino al 48%. Tali percentuali indicano che, per alcune applicazioni, questi modelli potrebbero risultare non solo inaffidabili, ma addirittura dannosi.

Cause delle allucinazioni

La comunità scientifica non ha ancora individuato con certezza le cause di questo fenomeno. Tuttavia, alcuni esperti, come Emily Bender e Yann LeCun, hanno suggerito che le allucinazioni siano inevitabili, essendo intrinseche all’architettura degli LLM (modelli di linguaggio di grandi dimensioni). Anche Sam Altman, CEO di OpenAI, ha descritto le allucinazioni come “caratteristiche” piuttosto che meri inconvenienti, sottolineando la complessità del problema.

Nuovi approcci per ridurre le allucinazioni

Per contrastare questo trend preoccupante, un team di ricercatori dell’Università di Oxford ha recentemente proposto un nuovo metodo per ridurre le allucinazioni nei modelli AI. Questo approccio si concentra sull’ottimizzazione della formazione dei modelli, cercando di migliorare la loro capacità di distinguere tra informazioni corrette e errate. I risultati preliminari sembrano promettenti, ma è chiaro che la strada per lo sviluppo di AI più affidabili è ancora lunga e irta di sfide.

In un contesto in cui l’adozione delle tecnologie AI è in continua espansione, è fondamentale continuare a esplorare le dinamiche alla base delle allucinazioni, affinché i futuri modelli possano non solo essere più potenti, ma anche più precisi e affidabili.

Redazione

Recent Posts

Un’AI per comprendere il linguaggio degli animali: l’ultima sfida di Baidu

La scienza cerca da anni un metodo per decifrare i versi animali, e ora potremmo…

3 ore ago

Secondo Google il nuovo malware LostKeys sarebbe collegato a dei gruppi di hacker russi

Google ha identificato un nuovo malware chiamato 'Lostkeys', legato al gruppo di hacker Cold River…

1 giorno ago

L’intelligenza artificiale arriva anche nello Spazio: tutte le innovazioni

L'intelligenza artificiale sta trasformando radicalmente anche l'industria aerospaziale, come emerso durante il road show 'Ai…

2 giorni ago

Elon Musk non si arrende, prosegue l’azione legale contro OpenAI

Il legale di Musk, Marc Toberoff, sostiene che OpenAI continua a sviluppare un'intelligenza artificiale closed-source…

3 giorni ago

Apple e Anthropic danno vita a una nuova piattaforma di programmazione con AI: ecco come funziona

Apple sta collaborando con Anthropic per sviluppare una nuova piattaforma di programmazione assistita da intelligenza…

4 giorni ago

L’Irlanda sanziona TikTok con una multa da 530 milioni di euro, l’accusa: invio illegale dei dati di utenti europei in Cina

TikTok multata: pronto il ricorso dell’azienda, cambiate le misure di sicurezza La Commissione irlandese per…

1 settimana ago