ChatGPT “si informa” su Grokipedia? Il dibattito sulle fonti nell’era dell’IA

In arrivo le chat di gruppo su ChatGPT

In arrivo le chat di gruppo su ChatGPT | Shutterstock - Cryptohack

Alessandro Bolzani

26 Gennaio 2026

Se le intelligenze artificiali iniziano a citarsi fra loro, a chi dobbiamo chiedere conto della verità? È una domanda che è lecito porsi, soprattutto in vista di un futuro in cui, con ogni probabilità, la maggior parte dei contenuti presenti su Internet saranno generati dall’IA. Una recente inchiesta del Guardian indica che di recente ChatGPT avrebbe fornito agli utenti delle risposte prese da Grokipedia.

Il sospetto sulle citazioni di Grokipedia

Secondo il quotidiano britannico, in alcune risposte ChatGPT avrebbe fatto riferimento a Grokipedia, l’enciclopedia generata tramite intelligenza artificiale sviluppata da xAI, la società fondata da Elon Musk. Non si tratterebbe di una copia diretta dei contenuti, ma dell’utilizzo di Grokipedia come fonte riconosciuta, una scelta che ha immediatamente acceso le polemiche, vista la reputazione controversa del progetto.

Cos’è Grokipedia e perché fa discutere

Grokipedia è comparsa online nell’ottobre scorso, dopo che Musk aveva criticato apertamente Wikipedia accusandola di avere un’impostazione politica distorta. Fin dal debutto, l’enciclopedia ha attirato attenzione e critiche: molte voci sembravano ricalcare quelle di Wikipedia, ma con integrazioni, riletture e interpretazioni che hanno sollevato dubbi sull’accuratezza e sulla neutralità dei contenuti.

Diversi osservatori hanno segnalato la presenza di errori fattuali e di ricostruzioni giudicate apertamente ideologiche, soprattutto su temi storici e sociali particolarmente sensibili. Una critica ricorrente è stata quella di una linea editoriale percepita come troppo allineata alle posizioni di Elon Musk, rendendo Grokipedia una fonte considerata da molti poco affidabile.

Quando i contenuti superano i confini di xAI

La vera novità, però, non è tanto l’esistenza di Grokipedia quanto il fatto che i suoi contenuti sembrino aver iniziato a circolare al di fuori dell’ecosistema di Musk. Il Guardian riferisce che la versione GPT-5.2 di ChatGPT avrebbe citato Grokipedia nove volte, rispondendo a oltre una dozzina di domande.

Secondo l’analisi del giornale, le citazioni non riguarderebbero eventi di cronaca ampiamente documentati, come l’assalto al Campidoglio del 6 gennaio o la storia dell’epidemia di HIV, ma argomenti più marginali e meno presidiati dal fact-checking. Proprio su questi temi emergerebbero reinterpretazioni discutibili e affermazioni già smentite in passato, anche dallo stesso Guardian.

ChatGPT ha citato Grokipedia come fonte?

Un ulteriore elemento critico riguarda il modo in cui ChatGPT avrebbe gestito i riferimenti a Grokipedia. Nei casi più controversi, infatti, la fonte non sarebbe stata citata esplicitamente. Questo apre una doppia questione: da un lato il mancato riconoscimento della paternità delle informazioni, dall’altro il ruolo opaco dei filtri e dei criteri di selezione che determinano cosa viene mostrato e cosa no.

Un problema che non riguarda solo ChatGPT

Il fenomeno non sarebbe isolato. Secondo quanto riportato dal Guardian, comportamenti simili sarebbero stati osservati anche in Claude, il chatbot sviluppato da Anthropic, suggerendo che il problema delle fonti e delle citazioni non riguarda un singolo modello ma l’intero ecosistema dell’intelligenza artificiale generativa.

Da OpenAI è arrivata una presa di posizione ufficiale: l’obiettivo dichiarato è quello di attingere a una gamma il più ampia possibile di fonti pubblicamente disponibili e di punti di vista differenti. Un intento che punta al pluralismo, ma che inevitabilmente riporta al centro un interrogativo cruciale: come garantire l’affidabilità delle informazioni quando anche le fonti sono generate da altre intelligenze artificiali?

Potrebbe interessarti anche questo articolo: ChatGPT Go arriva in Italia: cosa cambia rispetto alla versione gratuita e agli altri piani

Change privacy settings
×