Intelligenza Artificiale

L’Intelligenza artificiale può creare dei virus (informatici e non)?

Considerando le grandi capacità dell’intelligenza artificiale e i suoi importanti e veloci sviluppi, gli esperti si sono chiesti se non possa in qualche modo essere anche capace di creare virus informatici e non solo. Lo ha fatto OpenAI, l’azienda esperta in IA che ha sviluppato ChatGPT e DALL·E.

Stiamo sviluppando un progetto per valutare il rischio che un modello linguistico di grandi dimensioni (LLM) possa aiutare qualcuno a creare una minaccia biologica. In una valutazione che ha coinvolto sia esperti di biologia che studenti, abbiamo scoperto che GPT-4 fornisce al massimo un lieve aumento nella precisione nella creazione delle minacce biologiche. Anche se questo miglioramento non è abbastanza ampio da essere definitivo, la nostra scoperta è un punto di partenza per la ricerca continua e la deliberazione della comunità”, si legge nel sito di OpenAI.

Informatica | unsplash @lucabravo – Cryptohack.it

La continua evoluzione dell’intelligenza artificiale sta portando a progressi significativi, ma allo stesso tempo solleva anche questioni etiche e sociali.

Intelligenza artificiale: di cosa dovremmo preoccuparci?

L’intelligenza artificiale sta cambiando il settore della sicurezza informatica. Non è uno strumento utilizzato soltanto dai professionisti per rilevare minacce e anomalie, ma anche dai criminali informatici e per questo appare come un’arma a doppio taglio che i più esperti continuano a studiare ed esaminare. L’IA potrebbe creare anche vere e proprie minacce biologiche. OpenAI è intervenuta sull’argomento per annunciare l’avvio di un progetto che ha lo scopo di valutare il rischio che si corre se si utilizza in maniera inappropriata un LLM (modello linguistico di grandi dimensioni). L’azienda dimostra quindi di volersi impegnare contro i cattivi impieghi  degli strumenti che promuove.

Non possiamo permettere a chiunque di accedervi. Dobbiamo limitare chi può utilizzare il software di intelligenza artificiale, i sistemi cloud e persino parte del materiale biologico”, ha affermato il cofondatore di Google DeepMind, Mustafa Suleyman. “E ovviamente dal punto di vista biologico ciò significa limitare l’accesso ad alcune sostanze”,  “lo sviluppo dell’intelligenza artificiale deve essere affrontato con un principio di precauzione”, ha continuato.

Cosa è emerso dalla ricerca

I risultati della ricerca, che ha coinvolto esperti di biologia e studenti, evidenziano che GPT-4 potrebbe fornire un lieve aumento della precisione nella creazione di una minaccia biologica. L’ex dirigente di Google ed esperto di intelligenza artificiale avverte che l’IA può aiutare a generare virus sintetici e scatenare pandemie.

Computer | unsplash @John Schnobrich – Cryptohack.it

Mustafa Suleyman, ha spiegato recentemente: “Lo scenario più oscuro è che le persone sperimenteranno agenti patogeni sintetici ingegnerizzati che potrebbero finire per essere, accidentalmente o intenzionalmente, più trasmissibili o più letali“. “È qui che abbiamo bisogno di contenimento. Dobbiamo limitare l’accesso agli strumenti e al know-how per portare avanti questo tipo di sperimentazione”, ha continuato.

È stato scoperto di recente che i chatbot possono suggerire “quattro potenziali agenti patogeni pandemici entro un’ora e spiegare come possono essere generati dal DNA sintetico”. Inoltre “fornivano anche i nomi delle società di sintesi del DNA che difficilmente avrebbero vagliato gli ordini, identificato protocolli dettagliati e come risolverli e raccomandato a chiunque non avesse le competenze per eseguire la genetica inversa di impegnarsi in una struttura principale o in un’organizzazione di ricerca a contratto”.

Nello studio si legge che tali modelli linguistici di grandi dimensioni (LLM), come ChatGPT , “renderanno gli agenti di classe pandemica ampiamente accessibili non appena saranno identificati in modo credibile, anche a persone con poca o nessuna formazione di laboratorio”.

Le minacce informatiche

Shomiron Das Gupta, esperto di sicurezza informatica ha dichiarato che: “Poiché una piattaforma come ChatGPT può simulare risposte umane, può essere utilizzata per indurre le persone a divulgare informazioni sensibili o a fare clic su collegamenti dannosi“. Il malware BlackMamba sarebbe stato in grado di aggirare le tecnologie di sicurezza informatica come EDR (Endpoint Detection and Response) leader del settore in un progetto sperimentale guidato dai ricercatori di Hyas. Per prevenire questi attacchi informatici, le aziende dovrebbero investire di più sulla formazione dei dipendenti sulla sicurezza informatica.

L’intelligenza artificiale aiuta anche i criminali informatici a diffondere malware attraverso piattaforme di social media affidabili come YouTube. Gli autori creano video generati grazie all’intelligenza artificiale che si fingono tutorial per software come Photoshop e Premiere Pro.

Un’altra minaccia sono le-mail di phishing che invitano i destinatari a scaricare malware o a cliccare su collegamenti dannosi.

Giuliana Presti

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

5 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

4 settimane ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago