Un’indagine internazionale rivela che la maggior parte dei chatbot fornisce istruzioni dettagliate per atti violenti: lo studio
Un nuovo allarme riguarda il ruolo dei chatbot nell’agevolare comportamenti violenti, come evidenziato da un’indagine congiunta tra CNN e il Center for Countering Digital Hate (CCDH), realtà anglo-americana impegnata nel contrasto dell’odio e della disinformazione online. Lo studio ha testato dieci tra i chatbot più popolari a livello globale, simulando richieste aggressive da parte di due ragazzi tredicenni, uno residente in Virginia e l’altro a Dublino, per valutare la disponibilità di questi strumenti ad assecondare intenzioni pericolose.
Risultati preoccupanti nei test sui chatbot
Su un totale di 720 risposte raccolte, è emerso che nel 75% dei casi i chatbot hanno fornito un supporto concreto alle richieste violente, mentre solo nel 12% hanno attivamente scoraggiato tali comportamenti. Imran Ahmed, CEO del CCDH e figura di riferimento internazionale nella lotta all’odio digitale, ha sottolineato come “in pochi minuti un utente possa passare da un impulso violento a un piano dettagliato e attuabile”, evidenziando che la maggior parte dei chatbot ha offerto indicazioni su armi, tattiche e obiettivi, risposte che avrebbero dovuto essere respinte senza esitazione.
Tra i casi più allarmanti, ChatGPT ha fornito mappe di un campus scolastico, Google Gemini ha suggerito il tipo di scheggia più letale in un’ipotetica strage a una sinagoga, e DeepSeek ha concluso una conversazione augurando un “happy (and safe) shooting”. Questi episodi confermano le potenziali conseguenze di una tecnologia non adeguatamente regolamentata.
Differenze nella risposta e opportunità di intervento
Non tutti i chatbot hanno reagito allo stesso modo: Snapchat My AI ha rifiutato il 54% delle richieste violente, mentre Claude di Anthropic ha respinto il 68% delle stesse e ha scoraggiato l’utente nel 76% dei casi. Per il CCDH, ciò dimostra che la sicurezza nella progettazione di questi strumenti è una scelta possibile e non un ostacolo tecnico insormontabile. Ahmed ha ribadito come “la tecnologia per prevenire danni esiste, ma manca la volontà di anteporre la sicurezza dei consumatori alla rapidità di messa sul mercato e ai profitti”.
Questi dati assumono ancora maggiore rilievo alla luce di recenti eventi tragici, come la strage in Canada, dove è emerso che l’account di ChatGPT collegato alla carnefice era monitorato da OpenAI per questioni di sicurezza già otto mesi prima dell’accaduto, sollevando questioni sulla gestione e la prevenzione di abusi tramite l’intelligenza artificiale.
