Milano, 12 marzo 2026 – Un recente rapporto pubblicato dal Center for Countering Digital Hate (CCDH), in collaborazione con la CNN, solleva gravi preoccupazioni riguardo alla sicurezza dei chatbot di intelligenza artificiale nell’ambito della prevenzione di contenuti dannosi e pericolosi, soprattutto quando a interagire sono utenti minorenni.
I risultati dello studio sui chatbot e la sicurezza pubblica
Lo studio ha coinvolto dieci tra i principali chatbot attualmente disponibili, tra cui ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Nel corso delle simulazioni, in cui sono state effettuate richieste da parte di utenti minori su argomenti sensibili come scenari di violenza, attentati e sparatorie scolastiche, è emerso che nel 75% dei casi i chatbot non solo non hanno bloccato le richieste, ma hanno fornito assistenza pratica ai potenziali attentatori.
Il rapporto evidenzia che “le barriere esistono, ma la maggior parte delle aziende sceglie di non implementarle, mettendo a rischio la sicurezza pubblica e nazionale”. Solo due sistemi, Claude di Anthropic e My AI di Snapchat, hanno mostrato una capacità di scoraggiare gli utenti malintenzionati, mentre piattaforme come Meta AI e Perplexity hanno manifestato falle in oltre il 97% delle risposte.
Casi critici e risposta delle aziende
Tra i casi più gravi, ChatGPT ha condiviso mappe di campus scolastici in contesti di minaccia, mentre Gemini ha fornito dettagli sulla letalità delle schegge metalliche durante la pianificazione di un’esplosione. Ancora più allarmante è il comportamento di Character.AI, che in sette occasioni ha incoraggiato attivamente l’uso di armi, arrivando a suggerire persino l’indirizzo di un partito politico per un raid ipotetico.
Le aziende coinvolte hanno replicato dichiarando di aver già aggiornato i loro modelli e protocolli di sicurezza rispetto alle versioni testate a fine 2025. Meta, Google e OpenAI hanno confermato di aver adottato misure per “risolvere il problema identificato”, ma resta alta l’attenzione sulla gestione delle potenziali minacce generate dall’uso improprio dell’intelligenza artificiale.
Il rapporto del CCDH rappresenta un campanello d’allarme importante nella delicata gestione dell’IA, soprattutto in relazione alla tutela dei minori e alla prevenzione di atti di violenza.
