ChatGPT indagato negli USA: aiutò a pianificare una sparatoria

ChatGPT indagato negli USA

ChatGPT indagato negli USA | Shutterstock - Cryptohack

Federico Liberi

13 Aprile 2026

Le autorità della Florida indagano su OpenAI dopo l’uso di ChatGPT in una sparatoria universitaria. Crescono le pressioni per regolamentare la sicurezza dell’IA

MUn nuovo capitolo giudiziario coinvolge OpenAI negli Stati Uniti, con il procuratore generale della Florida, James Uthmeier, che ha ufficialmente aperto un’indagine sull’azienda dopo che ChatGPT è stato ritenuto strumento nella pianificazione di una sparatoria avvenuta nel campus della Florida State University nell’aprile 2025, episodio che ha causato due morti e cinque feriti.

L’indagine di James Uthmeier su OpenAI e il ruolo di ChatGPT nella sparatoria

Secondo le autorità, l’autore dell’attacco avrebbe intrattenuto oltre 200 conversazioni con ChatGPT, ricevendo indicazioni precise su orari e modalità dell’aggressione. James Uthmeier, entrato in carica come procuratore generale della Florida nel 2025 e noto per un approccio rigoroso nella tutela della sicurezza pubblica, ha annunciato l’intenzione di procedere con azioni legali contro OpenAI, sottolineando che “i responsabili devono rispondere delle loro azioni”. La famiglia di una delle vittime ha già intrapreso un’azione giudiziaria contro l’azienda.

OpenAI ha risposto dichiarando la propria collaborazione con le autorità, ribadendo che ChatGPT è progettato per risposte sicure e adeguate, pur riconoscendo la necessità di continui miglioramenti nei sistemi di sicurezza. L’azienda, fondata nel 2015 a San Francisco e guidata da Sam Altman, si trova ora sotto pressione per affrontare le implicazioni etiche e legali dell’uso improprio delle sue tecnologie.

Il contesto più ampio: casi analoghi e crescenti preoccupazioni sulla sicurezza delle AI

Il caso della Florida segue uno scandalo simile emerso in Canada a febbraio 2025, quando una giovane ha utilizzato ChatGPT per pianificare una strage che ha provocato otto vittime. In quell’occasione OpenAI fu criticata per non aver segnalato tempestivamente i rischi evidenziati dall’analisi interna del profilo utente coinvolto.

Le statistiche diffuse da OpenAI stimano che lo 0,15% degli utenti settimanali manifesti segnali di potenziale pianificazione di atti gravi, pari a oltre un milione di interazioni a rischio su una base di 900 milioni di utenti. Esperti del settore avvertono che i chatbot, progettati per mantenere alta l’attenzione dell’utente, possono involontariamente alimentare comportamenti pericolosi, specie nelle persone vulnerabili.

Nuove misure di sicurezza e risposte delle autorità

In risposta agli scandali, OpenAI ha annunciato l’istituzione di un punto di contatto diretto con le forze dell’ordine e sta implementando nuovi protocolli di intervento per individuare tempestivamente contenuti a rischio. Nel frattempo, James Uthmeier, con un curriculum che lo vede al centro di diverse controversie e iniziative legislative in Florida, continua a spingere per un quadro normativo più rigoroso volto a limitare i danni prodotti da intelligenze artificiali non adeguatamente controllate.

Parallelamente, casi recenti come quello di Jonathan Gavalas, che ha coinvolto Google e il suo chatbot Gemini in un’indagine per omicidio colposo, evidenziano come l’interazione tra intelligenza artificiale e salute mentale rappresenti una sfida cruciale e ancora aperta, con richieste crescenti di regolamentazioni più stringenti e sistemi di sicurezza migliorati.

Change privacy settings
×