L’avanzata dell’IA generativa minaccia la qualità dei sondaggi online: uno studio internazionale rivela rischi per l’attendibilità dei dati e propone nuove strategie difensive
Lucca, 13 febbraio 2026 – L’intelligenza artificiale generativa ha raggiunto un livello di sofisticazione tale da poter simulare risposte umane con una precisione preoccupante, mettendo a rischio l’affidabilità dei sondaggi online utilizzati in ambito sociale e politico. A lanciare l’allarme sono i ricercatori Folco Panizza della Scuola IMT di Lucca, insieme a Yara Kyrychenko e Jon Roozenbeek dell’Università di Cambridge, che hanno recentemente pubblicato uno studio su Nature dedicato a questo fenomeno e alle possibili contromisure.
Intelligenza artificiale, il rischio di contaminazione dei dati nei sondaggi online
Secondo lo studio, oggi tra il 30% e il 90% delle risposte raccolte nei sondaggi online potrebbe essere falso o fraudolento, una percentuale che supera di gran lunga la soglia critica del 3-7% necessaria per invalidare conclusioni statistiche affidabili. L’introduzione di sistemi di risposta basati su intelligenza artificiale ha aggravato la situazione, poiché tali sistemi sono in grado di generare risposte fluide, coerenti e contestualmente sensibili, spesso migliori rispetto a quelle prodotte da persone reali.
Folco Panizza spiega che gli strumenti tradizionali di riconoscimento, creati per distinguere risposte umane da quelle generate da bot, non sono più efficaci: “Quando analizziamo le risposte di un sondaggio, non possiamo più stabilire con certezza se chi risponde sia un essere umano o una macchina. Questo significa che tutti i dati raccolti sono potenzialmente contaminati“.
Strategie innovative per difendere l’integrità dei dati dall’intelligenza artificiale
Il team di ricerca suggerisce un approccio multiplo per arginare il problema. Una nuova strategia prevede l’analisi approfondita dei modelli di risposta e dei metadati comportamentali, come la velocità di digitazione, i tasti premuti e i comportamenti di copia e incolla. Paradossalmente, il metodo più efficace potrebbe essere quello di “costringere le macchine a commettere errori tipici degli esseri umani“. Panizza sottolinea: “Le macchine sono molto meno abili a sbagliare come fanno gli umani. Se un agente di IA risponde in modo troppo perfetto, questo stesso fatto può diventare un segnale di allarme“.
Gli autori raccomandano inoltre che ricercatori, piattaforme di sondaggi e finanziatori adottino precauzioni mirate per salvaguardare l’integrità dei dati, in un contesto in cui le capacità dell’intelligenza artificiale continuano a evolversi rapidamente.
Il profilo e le competenze dei ricercatori coinvolti
Yara Kyrychenko, dottoranda e Gates Scholar presso il Cambridge Social Decision-Making Lab, si occupa di coniugare teoria psicologica e metodi informatici per analizzare rischi e opportunità delle tecnologie sociali, con esperienza presso l’Alan Turing Institute e Nokia Bell Labs nel campo dell’IA responsabile. Il suo lavoro si concentra sull’impatto sociale dell’intelligenza artificiale, contribuendo a sviluppare strumenti per una valutazione più precisa e responsabile delle nuove tecnologie.
Jon Roozenbeek, anch’egli dell’Università di Cambridge, e Folco Panizza della Scuola IMT di Lucca, completano il team con competenze multidisciplinari che spaziano dalla psicologia sociale all’analisi dei dati, fondamentali per affrontare il problema emergente della contaminazione dei dati da parte dell’IA.
L’evoluzione dell’intelligenza artificiale richiede dunque un continuo adattamento delle metodologie di ricerca sociale, con un’attenzione particolare al delicato equilibrio tra innovazione tecnologica e affidabilità dei dati raccolti.
