La società guidata da Sam Altman rafforza le strategie per prevenire rischi psicologici legati all’uso dell’AI, con nuove misure di tutela per giovani e utenti vulnerabili
Milano, 29 dicembre 2025 – OpenAI ha annunciato l’avvio di una nuova ricerca per individuare un responsabile dedicato alla sicurezza e alla salute mentale nell’ambito dell’intelligenza artificiale. L’iniziativa, comunicata dall’amministratore delegato Sam Altman tramite un post sul social X, punta a rafforzare il controllo sui rischi associati all’uso delle tecnologie AI, con particolare attenzione alle conseguenze sui giovani utenti.
Il ruolo chiave del responsabile della “preparazione”
Il nuovo incaricato, definito “responsabile della preparazione” (preparedness), avrà il compito di implementare un quadro di sicurezza rigoroso per le nuove versioni dei modelli di intelligenza artificiale prima del loro rilascio sul mercato. Secondo Altman, “il potenziale impatto dei modelli sulla salute mentale è stato un aspetto di cui abbiamo avuto un’anteprima nel 2025”. L’obiettivo è mitigare le sfide emergenti legate all’uso di chatbot come ChatGPT, che, seppur capaci di offrire supporto emotivo, possono presentare rischi concreti.
Questa scelta arriva anche a seguito di denunce che hanno accusato OpenAI di un’eccessiva rapidità nel rilascio di aggiornamenti, come nel caso del modello GPT-4o, ritirato dopo critiche per il suo comportamento eccessivamente adulatore e poco autentico. Inoltre, la responsabilità di preparare e mettere in sicurezza i sistemi era affidata a un team interno che ha attraversato varie riorganizzazioni nel 2024, lasciando temporaneamente scoperta questa funzione cruciale.
OpenAI, nuove misure per proteggere gli utenti più vulnerabili
OpenAI sta inoltre lavorando a potenziamenti specifici per riconoscere e gestire conversazioni sensibili, soprattutto quelle che coinvolgono rischi di autolesionismo o suicidio. Attualmente i modelli sono in grado di identificare segnali di pericolo solo in scambi brevi; l’azienda mira a migliorare questa capacità per intervenire efficacemente anche in dialoghi prolungati. Saranno introdotti inoltre controlli parentali per gli utenti adolescenti, offrendo ai genitori strumenti per monitorare e indirizzare l’uso della piattaforma da parte dei figli. È allo studio la possibilità per gli adolescenti di designare un contatto di emergenza di fiducia, a cui il chatbot potrà rivolgere l’utente in caso di necessità.
Il post di Altman sottolinea la volontà di OpenAI di assumersi una “profonda responsabilità” nel supportare chi si trova in difficoltà, riconoscendo che “ChatGPT non è solo uno strumento per scrivere o programmare, ma anche un sostegno emotivo per molte persone”. L’azienda intende così consolidare la sicurezza nella diffusione dell’intelligenza artificiale, in un contesto di rapida evoluzione tecnologica e crescente uso da parte di fasce di popolazione particolarmente vulnerabili.
Potrebbe interessarti anche questo articolo: OpenAI presenta Gpt Image 1.5: immagini più precise e rapide, sfida diretta a Google
