Sora ha ancora problemi con i deepfake: le protezioni introdotte non bastano

Sora

Sora | Cryptohack.it

Alessandro Bolzani

18 Novembre 2025

Nonostante i nuovi filtri e controlli di OpenAI, l’app Sora permette ancora la creazione di video realistici con celebrità defunte, sollevando dubbi su sicurezza ed etica AI

Milano, 18 novembre 2025 – Nonostante le recenti restrizioni imposte da OpenAI per limitare la diffusione dei deepfake, la popolare app Sora continua a mostrare falle nella gestione della generazione di video con personaggi famosi, reali o deceduti. Un’indagine approfondita condotta dal sito di esperti 404 Media ha evidenziato come, negli Stati Uniti e in Canada, unici mercati dove l’app è attualmente disponibile, sia ancora possibile aggirare le protezioni e creare clip video con volti celebri come Tupac Shakur, Kobe Bryant, Juice Wrld e il rapper DMX, sollevando forti preoccupazioni sulla sicurezza e l’etica nell’uso dell’intelligenza artificiale.

L’aggiornamento di Sora 2 e le nuove sfide dei deepfake

Recentemente OpenAI ha lanciato Sora 2, una versione avanzata del modello AI per la generazione di video, accompagnata da una nuova app che funge anche da social network in stile TikTok, ma dedicato esclusivamente a contenuti creati con l’intelligenza artificiale. L’app consente agli utenti di creare brevi video, chiamati Cameo, che possono riprodurre il volto e la voce dell’utente stesso, previa autorizzazione esplicita. Tuttavia, nonostante le misure di sicurezza implementate, tra cui limiti nell’uso di personaggi pubblici e controlli umani sul contenuto, il rischio di utilizzi impropri resta elevato.

Secondo 404 Media, gli utenti riescono infatti a superare i filtri modificando lievemente le richieste testuali, evitando parole chiave vietate e producendo contenuti molto realistici. Questa tecnica si basa su una riscrittura intelligente dei prompt, che permette di ricreare stili e volti senza utilizzare direttamente termini bloccati dal sistema, rappresentando una sfida complessa per la moderazione automatica.

OpenAI risponde con nuove misure di sicurezza

In risposta alle crescenti critiche, OpenAI ha introdotto strumenti più rigorosi per consentire agli utenti di limitare la diffusione dei propri alter ego AI in contesti sensibili, come video che trattano temi politici o delicati. Il team di sviluppo ha sottolineato l’importanza di bilanciare sicurezza e creatività, garantendo protezioni proattive nelle aree a maggior rischio, accompagnate da un sistema di segnalazione e rimozione dei contenuti problematici.

Sam Altman, CEO di OpenAI, ha evidenziato come il feed sociale di Sora rappresenti un esperimento cruciale per comprendere come far evolvere la tecnologia in modo responsabile, mantenendo un occhio attento ai rischi come il bullismo e la disinformazione. Nonostante gli sforzi, il problema dei deepfake non è del tutto risolto, e la società si impegna a migliorare costantemente i sistemi di protezione per tutelare gli utenti e la fiducia nel sistema.

Le recenti vicende mostrano come la tecnologia AI applichi un potenziale creativo impressionante, ma impongano anche una riflessione urgente sulle implicazioni etiche e legali, soprattutto quando si tratta di riproduzioni video che coinvolgono figure pubbliche o defunte come Tupac Shakur e Kobe Bryant, i cui volti restano iconici e sensibili nell’immaginario collettivo.

Change privacy settings
×