Intelligenza Artificiale

OpenAI ammette: “ChatGPT può essere usato anche per sviluppare malware”

Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran

L’intelligenza artificiale sta rapidamente diventando uno strumento chiave per molte professioni, semplificando processi complessi e migliorando l’efficienza in numerosi settori. Tuttavia, come avviene spesso con le tecnologie innovative, anche i malintenzionati stanno trovando modi per sfruttarla a loro vantaggio. OpenAI, uno dei principali attori nel campo dell’IA generativa, ha recentemente rivelato che la sua piattaforma, ChatGPT, è stata utilizzata da gruppi di hacker per attività dannose. Questa dichiarazione rappresenta la prima conferma ufficiale del crescente impiego dell’IA da parte di cybercriminali, e mette in luce le sfide legate alla sicurezza in un’epoca in cui la tecnologia avanza rapidamente.

La minaccia emergente: l’uso improprio di ChatGPT

Dall’inizio del 2024, OpenAI ha bloccato oltre 20 operazioni informatiche malevole che utilizzavano ChatGPT. Questo dato è particolarmente preoccupante, poiché dimostra che l’IA generativa, sebbene progettata per scopi positivi, può essere facilmente manipolata da hacker e criminali informatici per scopi offensivi. ChatGPT, infatti, è stato utilizzato per scrivere codice malevolo, diffondere disinformazione e condurre attacchi di phishing. Tra le organizzazioni individuate figurano nomi di spicco come SweetSpecter e CyberAv3ngers, gruppi legati rispettivamente alla Cina e all’Iran, noti per le loro attività di cyberspionaggio e sabotaggio.

I gruppi coinvolti e i loro metodi operativi

SweetSpecter, un gruppo cinese, ha preso di mira direttamente OpenAI attraverso e-mail di phishing inviate ai dipendenti dell’azienda. Queste e-mail contenevano allegati dannosi, e le indagini successive hanno rivelato che il gruppo utilizzava ChatGPT per effettuare ricerche su vulnerabilità di sistema e sviluppare script personalizzati per attacchi mirati. Il loro scopo principale era ottenere informazioni riservate e accedere a risorse sensibili.

CyberAv3ngers, un gruppo affiliato al Corpo delle Guardie Rivoluzionarie Islamiche (IRGC), ha sfruttato ChatGPT per automatizzare molte fasi dei loro attacchi informatici. Tra le loro operazioni vi è la creazione di credenziali predefinite per sistemi programmabili e lo sviluppo di malware con codice offuscato, rendendo più difficile la rilevazione da parte dei software di sicurezza. Il gruppo ha anche utilizzato l’intelligenza artificiale per apprendere tecniche avanzate di furto di password, in particolare su sistemi macOS.

Un altro gruppo menzionato nel rapporto di OpenAI è Storm-0817, anch’esso legato all’Iran. Questo gruppo ha impiegato ChatGPT per attività che vanno dal debugging di malware alla creazione di strumenti per rubare dati da piattaforme social come Instagram. Inoltre, hanno sviluppato un malware personalizzato per Android, capace di rubare informazioni sensibili come contatti, registri di chiamate e file memorizzati sui dispositivi compromessi.

Il ruolo dell’intelligenza artificiale nel potenziare gli attacchi

La capacità dell’intelligenza artificiale di assistere in diverse fasi di un attacco informatico, dalla pianificazione all’esecuzione, ha preoccupato molti esperti di sicurezza. Anche se ChatGPT non ha necessariamente fornito strumenti nuovi per lo sviluppo di malware, la sua facilità d’uso ha reso più accessibili operazioni complesse anche per attori meno esperti. Questa democratizzazione dell’abilità offensiva è uno degli aspetti più allarmanti dell’evoluzione dell’IA nel campo della sicurezza informatica.

Foto | Unsplash / BoliviaInteligente – Cryptohack.it

Nel corso dell’ultimo anno, diverse aziende specializzate in sicurezza avevano già sollevato preoccupazioni su questo fronte. Proofpoint, ad esempio, aveva segnalato ad aprile l’uso di un loader PowerShell generato dall’IA per distribuire il malware Rhadamanthys, utilizzato per rubare informazioni sensibili. Anche HP Wolf Security ha confermato casi simili, notando che gruppi criminali stavano utilizzando l’IA per orchestrare attacchi multi-fase contro utenti in Francia.

Le misure adottate da OpenAI

In risposta a questi incidenti, OpenAI ha preso misure drastiche, bandendo tutti gli account coinvolti in attività illecite e condividendo informazioni utili, come indirizzi IP e indicatori di compromissione, con i principali partner del settore della sicurezza. Tuttavia, questo non risolve completamente il problema. Mentre OpenAI si impegna a migliorare la sicurezza e prevenire l’abuso delle sue piattaforme, l’uso crescente dell’IA per scopi malevoli rappresenta una sfida costante.

Andrea Zoccolan

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

5 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

4 settimane ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago