Il suicidio di un giovane e conversazioni a rischio con minori spingono lo Stato americano a proporre una legge che obbliga i produttori di intelligenza artificiale a rispondere delle azioni dei chatbot
Negli Stati Uniti cresce l’allarme sui rischi legati all’uso dei chatbot basati su intelligenza artificiale. Dopo mesi di segnalazioni e di storie drammatiche, lo Stato della California ha deciso di muoversi con una proposta di legge che potrebbe cambiare radicalmente il modo in cui le aziende sviluppano e gestiscono questi strumenti. Il provvedimento, se approvato, entrerebbe in vigore dal 1° gennaio 2026 e introdurrebbe regole stringenti per limitare i pericoli delle interazioni tra utenti e chatbot.
Dai casi di cronaca alle falle di sicurezza: perché serve una legge
La miccia che ha acceso il dibattito è stata la tragica vicenda di Adam Raime, un ragazzo americano che, secondo la sua famiglia, avrebbe deciso di togliersi la vita dopo settimane di conversazioni con ChatGPT. Gli scambi con il chatbot avrebbero alimentato uno stato di confusione e solitudine, contribuendo a un epilogo drammatico. Non è l’unico episodio. Sono emerse anche testimonianze di giovani utenti che hanno avuto dialoghi a sfondo sessuale con chatbot di Meta, incapaci di distinguere tra minori e adulti. Situazioni che mostrano limiti evidenti nei sistemi di sicurezza e che sollevano interrogativi sull’uso di queste tecnologie da parte delle fasce più vulnerabili della popolazione. La proposta di legge californiana mira proprio a colmare questo vuoto normativo. Il testo prevede che i produttori di chatbot siano responsabili delle conversazioni generate, obbligandoli a rafforzare i sistemi di protezione per impedire interazioni rischiose. In più, gli utenti che riterranno di aver subito danni psicologici a causa di un chatbot potranno fare causa alle società di intelligenza artificiale.
Le nuove regole e le reazioni delle big tech
Il disegno di legge introduce misure precise. Gli sviluppatori saranno obbligati a inserire nei sistemi dei reminder periodici, che ricordino agli utenti di non stare parlando con un essere umano e di fare una pausa. Una funzione simile esiste già in alcune console e app per limitare l’uso eccessivo, ma in questo caso l’obiettivo è prevenire un legame patologico con le intelligenze artificiali. Il provvedimento, sostenuto dal governatore Gavin Newsom, stabilirebbe inoltre che le aziende debbano fornire report di trasparenza periodici, per rendere chiaro come vengono gestite le conversazioni e quali meccanismi di sicurezza sono stati implementati. Le reazioni delle big tech non si sono fatte attendere. Meta, Google, Amazon e OpenAI si sono dette contrarie, sostenendo che un approccio troppo rigido rischia di rallentare lo sviluppo dell’AI. Al contrario, società come Anthropic hanno espresso apertura verso una regolamentazione che chiarisca i limiti e le responsabilità. Se approvata, la legge californiana diventerebbe il primo vero provvedimento a stabilire che sono le aziende a rispondere dei comportamenti dei chatbot, segnando un precedente destinato a fare scuola anche fuori dagli Stati Uniti.