xAI blocca i deepfake hot con Grok e introduce il paywall per proteggere le immagini reali

Salvatore Broggi

15 Gennaio 2026

San Francisco, 15 gennaio 2026 – xAI, la società di intelligenza artificiale guidata da Elon Musk, ha varato nuove restrizioni sull’uso di Grok, il suo modello di AI generativa dedicato alla modifica delle immagini. La decisione è arrivata ieri, in risposta a indagini sulle policy interne e alle pressioni crescenti per frenare la diffusione dei deepfake. Da oggi, chi proverà a manipolare immagini con Grok dovrà fare i conti con filtri più rigidi e un sistema a pagamento per sbloccare le funzioni più avanzate.

Deepfake, l’allarme cresce: ecco come reagisce xAI

La società californiana ha spiegato in una nota mattutina (ora del Pacifico) che “il miglioramento nella qualità dei deepfake e l’uso improprio delle nostre tecnologie” hanno reso “necessario un cambio netto nelle regole per l’accesso agli strumenti di modifica delle immagini”. Grok, l’assistente AI lanciato lo scorso anno e integrato su X, si era fatto notare per la capacità di generare e modificare fotografie in modo molto realistico.

Fonti interne raccolte da Reuters rivelano che il nuovo sistema permette a xAI di “bloccare automaticamente richieste sospette”, riconoscendo i tentativi di manipolazione riconducibili ai deepfake. Le nuove restrizioni prevedono inoltre che “l’accesso completo ad alcune funzioni” sia riservato agli utenti verificati e solo dietro pagamento di un abbonamento mensile da 15 dollari. Insomma, una barriera d’ingresso pensata per scoraggiare gli abusi e identificare meglio chi si rende protagonista di usi scorretti.

Dopo le inchieste sulle policy, arriva il giro di vite

Le novità arrivano poche settimane dopo una serie di inchieste giornalistiche e controlli da parte delle autorità sulla gestione dei contenuti generati con Grok. La piattaforma è finita sotto la lente dell’FTC, l’ente federale americano per la tutela dei consumatori, che aveva chiesto chiarimenti sulle procedure in caso di abuso o diffusione non autorizzata di immagini modificate. Nel mirino sono finite anche le questioni legate alla privacy e al rischio che foto alterate vengano usate in campagne diffamatorie o truffe online.

“Abbiamo preso atto delle preoccupazioni degli esperti e delle autorità”, ha detto un portavoce di xAI. “Con questo aggiornamento vogliamo rendere più sicura la nostra tecnologia e collaborare con gli enti per prevenire usi dannosi”. Al momento però non sono stati forniti dati precisi sul numero di richieste bloccate o casi specifici legati ai deepfake creati con Grok.

Il nuovo paywall sulle funzioni avanzate

Tra le novità principali spicca il paywall: da oggi soltanto chi sottoscrive un abbonamento mensile potrà usare le funzioni più complesse per modificare immagini offerte dal modello AI. Chi resta sulla versione gratuita potrà comunque utilizzare alcune opzioni base, ma la creazione di immagini iper-realistiche – volti o scene attuali – sarà riservata agli abbonati.

Una scelta che, secondo diversi esperti del settore, potrebbe limitare gli abusi ma anche penalizzare la ricerca indipendente o i creatori senza budget. “È un passo nella giusta direzione contro i deepfake”, ha detto alla BBC Joanna Bryson, docente di intelligenza artificiale all’Università di Bath, “ma rischia anche di restringere l’accesso a strumenti fondamentali per uno sviluppo etico dell’AI”.

Il dibattito aperto: rischi, privacy e controllo

Il tema dei deepfake resta centrale nel dibattito sulla sicurezza digitale. Secondo una ricerca pubblicata da Sensity AI a dicembre scorso, nel 2025 sono stati individuati oltre 700mila contenuti deepfake online, con un aumento del 34% rispetto all’anno precedente. L’uso più comune riguarda video politici manipolati e truffe ai danni delle aziende.

Le nuove regole di xAI si inseriscono in un quadro normativo ancora in costruzione, sia negli Stati Uniti sia in Europa. “Le piattaforme AI dovranno prendere decisioni sempre più drastiche per limitare i rischi”, ha spiegato Karen Goldstein, consulente legale a Washington DC. Solo così, forse, si potrà trovare un equilibrio tra innovazione e tutela dei diritti.

Intanto nella sede xAI sulla California Street – vicino al quartiere finanziario di San Francisco – ieri sera si respirava fermento. I dipendenti uscivano tra le 19 e le 20 senza voler rilasciare dichiarazioni ufficiali. Ma una fonte interna ha confidato: “Le pressioni sono molto aumentate nell’ultimo mese; ora la parola d’ordine è trasparenza”.

La stretta annunciata da xAI è dunque una tappa – certo non definitiva – nel tentativo globale di mettere ordine negli strumenti digitali contro i rischi sempre più evidenti della manipolazione visiva. E mentre le regole cambiano resta aperta la sfida: garantire innovazione senza lasciare spazio ai nuovi abusi.

Change privacy settings
×