Gli hacker stanno usando l’intelligenza artificiale di X per mostrare link truffaldini nascosti nei metadati, eludendo i controlli della piattaforma.
Il mondo della cybersecurity lancia l’allarme: una nuova tecnica di truffa online ha preso di mira X (ex Twitter), sfruttando la sua intelligenza artificiale Grok per aggirare i controlli e diffondere contenuti pericolosi. Il metodo, battezzato “Grokking” dagli esperti del settore, è una delle evoluzioni più sofisticate del malvertising: ovvero la pubblicazione di annunci o post che veicolano malware o link truffaldini.
Il sistema è tanto ingegnoso quanto insidioso. I cybercriminali pubblicano post con contenuti “esca”, come video per adulti, promozioni per schede grafiche, o offerte troppo allettanti per essere vere. All’apparenza sembrano normali inserzioni pubblicitarie, spesso anche sponsorizzate, quindi con grande visibilità sulla piattaforma.
All’interno del post, il link pericoloso viene nascosto in un campo secondario dei metadati, una zona che i controlli automatici di X non scansionano con rigore, perché considerata poco rischiosa. Questo link, quindi, passa inosservato ai filtri di sicurezza, restando invisibile finché qualcuno non lo “attiva”.
Ed è qui che entra in gioco Grok, l’assistente basato su AI sviluppato da X. Gli stessi truffatori, con un secondo commento, menzionano Grok e fanno una domanda generica, tipo: “Sai da dove viene questo video?”. Grok, analizzando i metadati del post per rispondere, estrae automaticamente il link nascosto e lo pubblica in chiaro, rendendolo visibile e apparentemente legittimo, dato che arriva da un account ufficiale della piattaforma.
Perché il Grokking è così efficace: l’effetto moltiplicatore dei contenuti sponsorizzati
Una volta che Grok condivide il link nel suo commento, il post iniziale – già sponsorizzato per raggiungere centinaia di migliaia di visualizzazioni – diventa una trappola perfetta. La presenza del link nel commento dell’assistente AI gli conferisce autorevolezza e visibilità, sia nel thread che nei risultati di ricerca, aumentando esponenzialmente il rischio di clic da parte degli utenti.

Il meccanismo sfrutta tre vulnerabilità:
la fiducia negli account ufficiali,
l’esposizione garantita dagli annunci a pagamento,
e la capacità dell’AI di estrarre dati dai metadati.
Il risultato è devastante: milioni di utenti possono essere esposti a link che normalmente sarebbero stati bloccati, ma che in questo caso vengono “certificati” da un’intelligenza artificiale riconosciuta.
Quali sono i rischi concreti per gli utenti: dalle truffe ai malware
Una volta cliccato, il link truffaldino non conduce mai dove promette. Secondo i ricercatori, porta a reti pubblicitarie sospette, sistemi di distribuzione del traffico (TDS) e pagine manipolate che cercano di ottenere dati personali o indurre l’utente a scaricare malware o trojan.
Una delle tecniche più usate è la falsa schermata CAPTCHA, che simula un controllo di sicurezza per poi chiedere informazioni sensibili o proporre l’installazione di software apparentemente legittimi. Ma dietro quell’“OK” si nascondono spesso keylogger, spyware o codici in grado di accedere a password, conti bancari e documenti salvati nel browser.
Secondo gli analisti, centinaia di account malevoli stanno già sfruttando questa tecnica, con migliaia di post pubblicati ogni giorno. La loro attività è coordinata e sistematica, segno evidente che si tratta di gruppi criminali organizzati, che operano fino a quando vengono bannati… per poi riapparire con nuovi nomi e nuove identità.
2025: la sfida tra intelligenza artificiale e sicurezza digitale è appena cominciata
Il fenomeno del “Grokking” segna un nuovo capitolo nell’evoluzione delle minacce informatiche, dove l’intelligenza artificiale viene manipolata non solo per creare contenuti, ma anche per amplificare la portata dei cyberattacchi.Non si tratta più di semplici malware nascosti in email, ma di strategie complesse che sfruttano le stesse tecnologie su cui si basa oggi l’informazione digitale.
La sfida per il 2025 sarà duplice: da un lato, rafforzare le misure di protezione delle piattaforme social, evitando che le AI vengano usate come strumenti di propagazione. Dall’altro, educare gli utenti a riconoscere segnali sospetti, anche quando appaiono in contesti apparentemente sicuri.
X non ha ancora rilasciato un commento ufficiale sulla vulnerabilità sfruttata con Grok, ma si ipotizza che nelle prossime settimane verranno adottate contromisure più rigide nella gestione dei metadati e nella risposta automatica dell’AI.