Una nuova funzione basata sull’IA compare in WhatsApp: gli utenti potranno chiedere a Meta AI se un messaggio è vero o falso. Ma il sistema sarà davvero affidabile?
In un’epoca in cui la disinformazione corre veloce tra le chat, Meta punta sull’intelligenza artificiale per contrastare il fenomeno. L’azienda guidata da Mark Zuckerberg sta testando su WhatsApp una nuova funzionalità chiamata “Ask Meta AI”, pensata per identificare le fake news direttamente all’interno delle conversazioni. L’obiettivo è ambizioso: trasformare WhatsApp in un luogo più sicuro, senza però compromettere la privacy degli utenti.
“Ask Meta AI”: come funziona il nuovo strumento di verifica delle notizie
Secondo quanto riportato da testate specializzate, la funzione è apparsa in una recente beta per Android, disponibile solo per alcuni utenti. L’interfaccia è semplice: per attivarla, basta tenere premuto sul messaggio sospetto e selezionare dal menù la voce “Ask Meta AI”. A quel punto l’intelligenza artificiale analizza il contenuto, fornendo una risposta sulla possibile veridicità del testo.
Importante sottolineare che Meta AI non ha accesso automatico alle chat. È sempre l’utente a dover decidere quali contenuti sottoporre all’analisi, in modo da non violare la riservatezza delle conversazioni. Il sistema ricorda quello già presente su X (ex Twitter) con Grok, ma si differenzia per l’assenza di un controllo umano: al momento non risulta infatti il coinvolgimento di fact-checker o esperti in carne e ossa a supporto delle valutazioni dell’algoritmo.

L’iniziativa si inserisce in un contesto in cui le fake news su WhatsApp sono diventate un vero e proprio problema sociale. Già in passato la piattaforma aveva introdotto limiti all’inoltro massivo dei messaggi, proprio per arginare la diffusione incontrollata di contenuti falsi. Con “Ask Meta AI”, il tentativo è di mettere un filtro attivo tra l’utente e la disinformazione, senza però compromettere la libertà di comunicazione.
Restano però molti dubbi. Il sistema si affida interamente all’intelligenza artificiale, senza una verifica incrociata con fonti affidabili o redazioni indipendenti. Il rischio? Che l’IA possa commettere errori, classificando come fake notizie vere o, peggio ancora, non individuando contenuti pericolosi o complottisti.
E questo accade proprio mentre Meta ha scelto, negli Stati Uniti, di chiudere il suo programma ufficiale di fact-checking con partner terzi. La decisione è stata annunciata mesi fa dallo stesso Mark Zuckerberg, che ha dichiarato: “Ci libereremo dei fact-checker e li sostituiremo con note della comunità”. Una scelta che ha spaccato l’opinione pubblica americana, con Donald Trump favorevole e Joe Biden contrario.
AI4TRUST e la sfida europea contro la disinformazione digitale
Sul fronte opposto, in Europa, la lotta alla disinformazione assume contorni diversi. Il progetto AI4TRUST, finanziato dal programma Horizon Europe, propone una piattaforma avanzata per il fact-checking, che unisce l’intelligenza artificiale alla competenza umana. Partner del progetto è anche Sky TG24, che ha raccontato l’iniziativa in una puntata del programma “Progress” andata in onda il 23 marzo 2025.
L’obiettivo di AI4TRUST è ambizioso: creare un ecosistema informativo trasparente e verificato, in cui l’IA non sostituisce i giornalisti, ma li affianca, migliorando i tempi di risposta e l’accuratezza nella segnalazione delle fake news. Una strategia ben diversa da quella attuale di Meta, che punta a tagliare il coinvolgimento umano, affidandosi in toto alle capacità della sua AI proprietaria.
In un momento storico in cui l’intelligenza artificiale è al centro del dibattito pubblico, strumenti come “Ask Meta AI” sollevano interrogativi cruciali. La domanda non è solo se siano tecnologicamente efficaci, ma anche quanto possiamo fidarci di un algoritmo nel distinguere la verità dalla menzogna. Il futuro della comunicazione passa anche da qui: dalla capacità delle piattaforme di coniugare innovazione e responsabilità, senza lasciare spazio a zone grigie.