OpenAI spiega perché l’intelligenza artificiale commette ancora errori

Risposte errate

Stanchi di risposte sbagliate? Scopri perchè lo fa-cryptohack.it

Franco Vallesi

12 Settembre 2025

OpenAI spiega perché le allucinazioni nei modelli linguistici non sono un bug, ma un limite strutturale difficile da eliminare.

Un nuovo documento ufficiale di OpenAI analizza in profondità il problema delle allucinazioni nei modelli IA: ecco cosa cambia con GPT-5.

Le intelligenze artificiali non sono infallibili. Anzi, continuano a commettere errori anche gravi, e lo fanno con una convinzione disarmante. Chiunque abbia utilizzato ChatGPT, o qualsiasi altro modello linguistico di grandi dimensioni (LLM), ha sperimentato almeno una volta una risposta inventata, fuori contesto o del tutto sbagliata. Ma perché accade questo, anche con i modelli più evoluti? La risposta è arrivata direttamente da OpenAI, l’azienda guidata da Sam Altman, che il 5 settembre 2025 ha pubblicato un’analisi approfondita sul tema, spiegando perché le allucinazioni dell’IA sono ancora oggi una sfida aperta.

Le allucinazioni dei modelli IA: un problema strutturale, non un semplice errore

Secondo quanto pubblicato da OpenAI sul proprio blog ufficiale, le cosiddette allucinazioni sono risposte generate con sicurezza, ma non vere, e derivano direttamente dal modo in cui vengono addestrati e valutati gli LLM. La spiegazione, che accompagna un paper tecnico aggiornato, fa luce su un punto chiave: le IA non sono programmate per sapere se una risposta è corretta, ma per indovinare la parola successiva con maggiore probabilità.

Il problema risiede nei meccanismi di training e nei benchmark di valutazione. Gli attuali sistemi premiano le risposte piene e plausibili, piuttosto che l’ammissione dell’incertezza. Un modello che afferma “non lo so” viene infatti penalizzato in termini di punteggio, mentre una risposta sbagliata ma formulata con decisione può portare a risultati migliori nei test di accuratezza.

Ai ed errori
Ecco perchè sbaglia e da cosa dipende-cryptohack.it

È un po’ come partecipare a un quiz a scelta multipla: lasciare in bianco una risposta equivale a zero punti, mentre tirare a indovinare può portare comunque a un risultato positivo. Questo tipo di incentivo spinge le intelligenze artificiali a “inventare” risposte, pur di non astenersi. Una tendenza che viene erroneamente scambiata per creatività, ma che in realtà compromette l’affidabilità dei modelli.

Le proposte di OpenAI per ridurre gli errori delle intelligenze artificiali

L’azienda suggerisce un cambio di paradigma nei sistemi di valutazione, proponendo un approccio che premi l’incertezza espressa correttamente invece delle ipotesi sbagliate. Secondo OpenAI, gli errori devono essere penalizzati più delle astensioni, e servono nuovi strumenti per misurare la qualità di una risposta oltre alla sola accuratezza.

Anche con l’introduzione di GPT-5, OpenAI ha ottenuto miglioramenti visibili nella riduzione delle allucinazioni, in particolare nei task di reasoning (ragionamento logico). Ma il problema resta: le allucinazioni non sono un bug temporaneo, sono una conseguenza diretta della logica probabilistica su cui si basa ogni modello linguistico.

Inoltre, OpenAI evidenzia come nessun modello, per quanto potente, potrà mai raggiungere il 100% di accuratezza. Alcune domande del mondo reale non hanno risposte certe o verificabili, e il ruolo dei LLM deve spostarsi dal tentativo di rispondere a tutti i costi all’abilità di riconoscere l’ambiguità.

Il problema è anche nel pre-training: nella prima fase dell’addestramento, gli LLM vengono nutriti con grandi quantità di testo, ma senza etichette valide su cosa sia vero o falso. Questo rende impossibile per il modello distinguere con certezza i dati affidabili da quelli sbagliati. Anche le successive fasi di affinamento, come il reinforcement learning, non sono sufficienti per eliminare totalmente le allucinazioni.

Il futuro dei modelli IA tra limiti tecnici e nuove priorità

OpenAI conclude il suo intervento con una visione chiara: i modelli linguistici devono imparare a dire “non lo so”, e la ricerca deve premiare questa forma di trasparenza. Una rivoluzione che riguarda non solo gli sviluppatori, ma anche l’intera industria dell’intelligenza artificiale, chiamata a ripensare metriche e obiettivi.

Nel frattempo, cresce la consapevolezza anche tra gli utenti: nel 2025, la scritta sotto la barra di ChatGPT che invita a “verificare le informazioni importanti” è ancora lì, e per un motivo preciso. Affidarsi ciecamente all’IA può portare a errori potenzialmente dannosi, specialmente in settori delicati come medicina, diritto o finanza.

Il lavoro da fare è ancora lungo, ma riconoscere i limiti è il primo passo per superarli. E nel frattempo, gli utenti imparano a convivere con un’intelligenza artificiale utile, ma non onnisciente.

Change privacy settings
×