Intelligenza Artificiale

Intelligenza artificiale: aumentano usi illeciti, immagini e dati utilizzati per sextortion e ghostbot

Tra i tanti utilizzi che si fanno dell’Intelligenza artificiale, se ne stanno sviluppando alcuni non proprio conformi alla legge e che rispecchiano le caratteristiche di veri e propri crimini. Nell’ultimo periodo, si sta discutendo parecchio, infatti, dei pericoli a cui si può andare incontro a causa dell’Ia e dell’uso poco regolamentato di questo strumento in continuo ampliamento. L’FBI, ha rilevato diversi crimini commessi dall’Intelligenza artificiale, utilizzata addirittura per produrre foto di nudo di persone inconsapevoli con l’obiettivo di chiedere alle stesse, somme di denaro per evitarne la diffusione. L’Intelligenza artificiale è sempre più accurata e precisa e grazie al suo aiuto si riescono a realizzare fake sempre più realistici.

FBI lancia allarme per casi di Sextortion e ghostbot

I cybercriminali praticano una vera e propria estorsione sessuale, minacciando le vittime di condividere i contenuti con i loro amici o familiari se non viene pagato un riscatto (somma di denaro o altre richieste). Oggi, utilizzando le capacità dell’intelligenza artificiale, si riescono, (anche gratuitamente)  a generare deepfake, a partire da foto o video pubblicate da utenti sui loro account social.

Foto | unsplash @ericward – Gentechevainmontagna.it

Recentemente l’FBI e ricercatori inglesi, hanno evidenziato un forte abuso dell’Ia, con casi soprattutto di sextortion e ghostbot, sollecitando un allarme dopo le tante segnalazioni ricevute, e fornendo alcuni consigli per evitare di correre rischi. Il fenomeno del ghostbot è legato all’utilizzo di software, in grado di generare reincarnazioni digitali di persone defunte dai dati personali e impronte digitali presenti sui social media. Le immagini appaiono abbastanza realistiche e in alcuni casi sono stati presi di mira anche i bambini. Un esempio è legato a un ologramma del defunto Robert Kardashian, generato dalla tecnologia deepfake e regalato a Kim Kardashian da Kanye West nel 2020. Il contenuto creato dall’Ia è stato prodotto con l’utilizzo delle caratteristiche del padre e ha parlato con la sua voce.

L’FBI afferma: “I progressi tecnologici stanno migliorando continuamente la qualità, la personalizzazione e l’accessibilità della creazione di contenuti abilitati all’intelligenza artificiale“. Una ricerca della “Queen’s University” ha messo in luce i pericoli derivati dalla mancanza di leggi sulla protezione dei dati, che causa un crescente abuso di ghostbot.

Ecco quali consigli fornisce l’FBI per proteggersi dalla sextortion:

  • Condividere pochi contenuti online e renderli visibili a un numero limitato di persone che si conoscono;
  • Non pubblicare foto e video di bambini o almeno, oscurare il loro volto;
  • Non accettare richieste di amicizia di utenti sconosciuti.
Giuliana Presti

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

6 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

1 mese ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago