Deepfake, presto Honor metterà a disposizione una tecnologia per riconoscerli

Questa tecnologia si propone di essere un alleato fondamentale nella lotta contro le truffe digitali e nel rilevamento di contenuti alterati

A partire da aprile 2025, il marchio Honor lancerà a livello globale una nuova e innovativa funzione di AI Deepfake Detection. Questa tecnologia si propone di essere un alleato fondamentale nella lotta contro le truffe digitali e nel rilevamento di contenuti alterati, un tema di crescente rilevanza nel nostro mondo sempre più interconnesso. I deepfake, ovvero i contenuti video o audio manipolati tramite intelligenza artificiale, rappresentano una minaccia crescente, tanto che si stima che entro breve si verificherà un attacco deepfake ogni cinque minuti, secondo l’Entrust Cybersecurity Institute.

Capire la differenza tra un video reale e uno manipolato sta diventando sempre più difficile. Un’indagine condotta da Deloitte nel 2024 ha rivelato che il 59% degli intervistati ha dichiarato di avere difficoltà a identificare i contenuti generati dall’AI rispetto a quelli reali. Questo dato sottolinea l’urgenza di sviluppare strumenti efficaci per contrastare tale fenomeno, che mette a rischio non solo la sicurezza delle informazioni personali, ma anche la credibilità delle notizie e delle comunicazioni in generale.

La tecnologia di Honor per la rilevazione dei deepfake

La tecnologia di Honor, presentata durante l’IFA 2024, utilizza algoritmi avanzati per analizzare video e immagini in tempo reale, identificando incongruenze che potrebbero sfuggire all’occhio umano. Tra le caratteristiche principali di questa soluzione vi sono:

  1. Rilevazione di imperfezioni a livello di pixel;
  2. Artefatti di composizione nei bordi;
  3. Interruzioni nella continuità tra i fotogrammi;
  4. Anomalie nei tratti facciali.

Questi dettagli, che possono sembrare minimi, sono cruciali per determinare l’autenticità di un contenuto. Quando il sistema rileva contenuti sospetti, emette un avviso immediato, fornendo agli utenti uno strumento proattivo nella protezione contro la disinformazione.

L’importanza della privacy e della sicurezza

Marco Kamiya, rappresentante dell’UNIDO, ha recentemente commentato l’importanza di tali tecnologie, evidenziando che nell’attuale era della digitalizzazione, la sicurezza della privacy è diventata una delle principali preoccupazioni quotidiane. Viviamo in un mondo in cui una quantità enorme di informazioni personali viene archiviata online, dalle nostre attività quotidiane alle nostre preferenze più intime. La protezione di questi dati è fondamentale non solo per la sicurezza individuale, ma anche per la fiducia nel sistema informatico globale.

Utilizzare l’AI Deepfake Detection sui dispositivi mobili rappresenta un passo avanti significativo nella lotta contro i contenuti ingannevoli. Questa tecnologia è in grado di rilevare difetti in video e immagini deepfake che potrebbero facilmente passare inosservati, come il contatto visivo, l’illuminazione e la nitidezza dell’immagine. Questo approccio non solo aiuta a proteggere gli utenti, ma serve anche a dissuaderli dall’interagire con contenuti potenzialmente dannosi.

La sfida contro i deepfake

In un contesto in cui le fake news e la disinformazione proliferano, l’implementazione di strumenti come l’AI Deepfake Detection è essenziale per garantire un ecosistema digitale più sicuro e affidabile. È fondamentale che tutti i produttori di tecnologia si uniscano in questo sforzo, contribuendo a creare un ambiente online in cui gli utenti possano sentirsi protetti e informati.

I deepfake non solo minacciano la privacy degli individui, ma possono anche influenzare la sfera pubblica, alterando la percezione della realtà e manipolando l’opinione pubblica. Le conseguenze possono essere devastanti, come dimostrato in vari casi in cui video falsificati sono stati utilizzati per diffamare persone o influenzare elezioni. È evidente che la lotta contro i deepfake non è solo una questione tecnologica, ma anche etica e sociale.

La tecnologia di Honor rappresenta un passo significativo verso la sicurezza e la protezione della verità nel mondo digitale. Ci si aspetta che possa stimolare un cambiamento positivo, incoraggiando altre aziende a investire in soluzioni simili. Solo così sarà possibile affrontare efficacemente la crescente minaccia dei deepfake e garantire un ambiente digitale più sicuro per tutti.

Redazione Cryptohack

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

5 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

4 settimane ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago