L’Intelligenza artificiale può creare dei virus (informatici e non)?

Considerando le grandi capacità dell’intelligenza artificiale e i suoi importanti e veloci sviluppi, gli esperti si sono chiesti se non possa in qualche modo essere anche capace di creare virus informatici e non solo. Lo ha fatto OpenAI, l’azienda esperta in IA che ha sviluppato ChatGPT e DALL·E.

Stiamo sviluppando un progetto per valutare il rischio che un modello linguistico di grandi dimensioni (LLM) possa aiutare qualcuno a creare una minaccia biologica. In una valutazione che ha coinvolto sia esperti di biologia che studenti, abbiamo scoperto che GPT-4 fornisce al massimo un lieve aumento nella precisione nella creazione delle minacce biologiche. Anche se questo miglioramento non è abbastanza ampio da essere definitivo, la nostra scoperta è un punto di partenza per la ricerca continua e la deliberazione della comunità”, si legge nel sito di OpenAI.

Informatica
Informatica | unsplash @lucabravo – Cryptohack.it

La continua evoluzione dell’intelligenza artificiale sta portando a progressi significativi, ma allo stesso tempo solleva anche questioni etiche e sociali.

Intelligenza artificiale: di cosa dovremmo preoccuparci?

L’intelligenza artificiale sta cambiando il settore della sicurezza informatica. Non è uno strumento utilizzato soltanto dai professionisti per rilevare minacce e anomalie, ma anche dai criminali informatici e per questo appare come un’arma a doppio taglio che i più esperti continuano a studiare ed esaminare. L’IA potrebbe creare anche vere e proprie minacce biologiche. OpenAI è intervenuta sull’argomento per annunciare l’avvio di un progetto che ha lo scopo di valutare il rischio che si corre se si utilizza in maniera inappropriata un LLM (modello linguistico di grandi dimensioni). L’azienda dimostra quindi di volersi impegnare contro i cattivi impieghi  degli strumenti che promuove.

Non possiamo permettere a chiunque di accedervi. Dobbiamo limitare chi può utilizzare il software di intelligenza artificiale, i sistemi cloud e persino parte del materiale biologico”, ha affermato il cofondatore di Google DeepMind, Mustafa Suleyman. “E ovviamente dal punto di vista biologico ciò significa limitare l’accesso ad alcune sostanze”,  “lo sviluppo dell’intelligenza artificiale deve essere affrontato con un principio di precauzione”, ha continuato.

Cosa è emerso dalla ricerca

I risultati della ricerca, che ha coinvolto esperti di biologia e studenti, evidenziano che GPT-4 potrebbe fornire un lieve aumento della precisione nella creazione di una minaccia biologica. L’ex dirigente di Google ed esperto di intelligenza artificiale avverte che l’IA può aiutare a generare virus sintetici e scatenare pandemie.

Computer
Computer | unsplash @John Schnobrich – Cryptohack.it

Mustafa Suleyman, ha spiegato recentemente: “Lo scenario più oscuro è che le persone sperimenteranno agenti patogeni sintetici ingegnerizzati che potrebbero finire per essere, accidentalmente o intenzionalmente, più trasmissibili o più letali“. “È qui che abbiamo bisogno di contenimento. Dobbiamo limitare l’accesso agli strumenti e al know-how per portare avanti questo tipo di sperimentazione”, ha continuato.

È stato scoperto di recente che i chatbot possono suggerire “quattro potenziali agenti patogeni pandemici entro un’ora e spiegare come possono essere generati dal DNA sintetico”. Inoltre “fornivano anche i nomi delle società di sintesi del DNA che difficilmente avrebbero vagliato gli ordini, identificato protocolli dettagliati e come risolverli e raccomandato a chiunque non avesse le competenze per eseguire la genetica inversa di impegnarsi in una struttura principale o in un’organizzazione di ricerca a contratto”.

Nello studio si legge che tali modelli linguistici di grandi dimensioni (LLM), come ChatGPT , “renderanno gli agenti di classe pandemica ampiamente accessibili non appena saranno identificati in modo credibile, anche a persone con poca o nessuna formazione di laboratorio”.

Le minacce informatiche

Shomiron Das Gupta, esperto di sicurezza informatica ha dichiarato che: “Poiché una piattaforma come ChatGPT può simulare risposte umane, può essere utilizzata per indurre le persone a divulgare informazioni sensibili o a fare clic su collegamenti dannosi“. Il malware BlackMamba sarebbe stato in grado di aggirare le tecnologie di sicurezza informatica come EDR (Endpoint Detection and Response) leader del settore in un progetto sperimentale guidato dai ricercatori di Hyas. Per prevenire questi attacchi informatici, le aziende dovrebbero investire di più sulla formazione dei dipendenti sulla sicurezza informatica.

L’intelligenza artificiale aiuta anche i criminali informatici a diffondere malware attraverso piattaforme di social media affidabili come YouTube. Gli autori creano video generati grazie all’intelligenza artificiale che si fingono tutorial per software come Photoshop e Premiere Pro.

Un’altra minaccia sono le-mail di phishing che invitano i destinatari a scaricare malware o a cliccare su collegamenti dannosi.

Gestione cookie