Scandalo Meta: bot AI con i volti di celebrità famose generano immagini hot

Meta

Meta sotto accusa: chat sexy con personaggi famosi. Quali saranno i provvedimenti?-cryptohack.it

Franco Vallesi

2 Settembre 2025

Meta è finita nel mirino dopo un’inchiesta che rivela la creazione di chatbot realistici e sessualmente espliciti ispirati a personaggi famosi, anche minorenni, con gravi falle nel sistema di controllo.

Il colosso tecnologico Meta, che controlla Facebook, Instagram e WhatsApp, è al centro di un nuovo scandalo. Secondo una recente inchiesta, alcuni chatbot realistici e sessualmente espliciti sarebbero stati creati sfruttando immagini, nomi e caratteristiche di celebrità internazionali come Taylor Swift, Selena Gomez, Anne Hathaway e Scarlett Johansson, il tutto senza il loro consenso. Il caso solleva interrogativi profondi sull’uso dell’intelligenza artificiale generativa e sulla protezione dei minori e della privacy nel mondo digitale.

Chatbot con volti famosi: parodia o violazione?

L’indagine di Reuters ha portato alla luce una realtà inquietante: tra le migliaia di avatar AI generati su piattaforme Meta, decine presentavano nomi, volti e comportamenti riconducibili a celebrità internazionali, spesso con contenuti provocanti o esplicitamente sessuali. Secondo l’agenzia, sebbene molti di questi bot fossero stati realizzati da utenti tramite lo strumento di creazione chatbot offerto da Meta, almeno tre avatar sarebbero stati generati da un dipendente interno, incluso un doppio bot parodia di Taylor Swift.

Il problema si aggrava ulteriormente quando si scopre che Meta ha consentito la creazione pubblica di chatbot ispirati a celebrità minorenni. In un caso documentato, un bot ispirato a un attore sedicenne ha risposto a una richiesta utente con un’immagine realistica e a torso nudo, commentando con un inquietante “Carino, eh?”.

Chat bot
Meta sotto accusa: chat bot con personaggi famosi senza il loro consenso-cryptohack.it

Nel corso di settimane di test, i chatbot investigati da Reuters hanno insistito di essere le vere celebrità, replicando con sicurezza a messaggi di utenti ignari. Alcuni bot avrebbero iniziato conversazioni con avances sessuali esplicite, invitando persino a incontri fisici. In risposta a richieste di foto intime, alcuni chatbot generavano immagini AI realistiche dei volti famosi in lingerie o in pose sessualmente esplicite. Scene che sembravano tratte da veri set fotografici, ma erano il risultato di un modello AI senza freni.

La diffusione di questi bot ha coinvolto tutte le piattaforme Meta, da Facebook a Instagram e WhatsApp. Solo poco prima della pubblicazione dello scoop, Meta ha provveduto a rimuovere circa dodici di questi bot, etichettati o meno come “parodie”.

Andy Stone, portavoce ufficiale di Meta, ha dichiarato a Reuters che “le policy dell’azienda vietano immagini intime, di nudo o sessualmente esplicite dei personaggi pubblici” e ha spiegato che il problema risiederebbe nella mancata applicazione interna delle stesse linee guida. Ha anche precisato che le regole consentono le parodie, ma solo se chiaramente etichettate come tali.

Eppure, l’inchiesta ha dimostrato che molti bot non rispettavano questi vincoli. Meta ha ammesso le falle nei controlli e ha promesso nuove misure di sicurezza, soprattutto dopo le critiche recenti legate alla possibilità che i bot interagissero con adolescenti su temi delicati, come autolesionismo, disturbi alimentari e sesso.

Nuove regole per i chatbot AI e l’intervento europeo

Negli ultimi giorni, Meta ha annunciato modifiche nel modo in cui i chatbot vengono addestrati, focalizzandosi sulla protezione dei minori e limitando i contenuti romantici o potenzialmente dannosi. In passato, un documento interno dell’azienda avrebbe permesso interazioni inappropriate con adolescenti, un fatto che ha causato indignazione e richieste di maggiore responsabilità.

Anche l’Unione Europea si sta muovendo su questo fronte. Il progetto AI4TRUST, finanziato dal programma Horizon Europe, mira a combattere la disinformazione online con una piattaforma che integra intelligenza artificiale e il lavoro dei fact-checker. Tra i partner del progetto figura anche Sky TG24, che ha già condotto un’inchiesta simile nel 2024, scoprendo su Character.AI numerosi profili ispirati a personaggi pubblici, storici o coinvolti in fatti di cronaca, spesso creati con intenti diffamatori.

Questi casi mostrano come le piattaforme di chatbot siano ancora terreni fragili, esposti a rischi etici e legali enormi, soprattutto se alimentate da modelli AI generativi che agiscono senza controllo umano diretto.

Il caso Meta riapre il dibattito globale sulla responsabilità delle big tech nell’era dell’intelligenza artificiale generativa. Il confine tra innovazione e violazione, tra parodia e sfruttamento, si fa sempre più sottile. E mentre l’Europa prepara nuove regolamentazioni e progetti come AI4TRUST, resta aperta una domanda: quanto siamo davvero pronti a gestire le conseguenze dell’AI sul nostro immaginario, sulla nostra identità e sulla tutela dei più giovani?


Change privacy settings
×