Google lancia nuove funzioni IA per la salute mentale e la protezione dei minori

Google Search Live

Google Search Live | Shutterstock - Cryptohack

Redazione Cryptohack

7 Aprile 2026

Roma, 7 aprile 2026 – Google annuncia un importante aggiornamento per la sua intelligenza artificiale Gemini, con nuove funzionalità dedicate alla salute mentale e alla protezione degli utenti, in particolare dei minori. Le novità, già disponibili in tutto il mondo compresa l’Italia, rispondono a un crescente dibattito internazionale sull’uso responsabile dell’IA in ambito sanitario e sociale.

Google e nuove funzionalità per il supporto psicologico

Tra le innovazioni più rilevanti, Google introduce il modulo ‘Puoi chiedere aiuto’, sviluppato in collaborazione con esperti clinici. Questo strumento si attiva automaticamente quando la conversazione con Gemini indica che un utente potrebbe trovarsi in una situazione di grave difficoltà psicologica. L’IA è in grado di riconoscere segnali di disagio e di indirizzare l’utente verso un supporto concreto, con un’interfaccia ‘one-touch’ che permette un collegamento immediato con le linee di assistenza per le emergenze.

Google ha inoltre stanziato un finanziamento globale di 30 milioni di dollari per i prossimi tre anni, destinato a sostenere le linee di assistenza, sottolineando l’impegno dell’azienda nel promuovere la sicurezza e il benessere degli utenti.

Protezioni specifiche per i minori e limiti dell’IA

La società ha implementato misure di tutela specifiche per i minori, volte a evitare l’esposizione a contenuti pericolosi e a prevenire la dipendenza emotiva. Gemini non può presentarsi come un essere umano o un compagno fidato, né utilizzare un linguaggio che simuli intimità o esprima bisogni personali. Sono inoltre attive protezioni contro l’incitamento al bullismo e altre forme di molestia.

Google chiarisce che, sebbene Gemini possa essere uno strumento utile per apprendere e ottenere informazioni, non sostituisce l’assistenza clinica professionale, la terapia o il supporto d’emergenza. Il modello è stato addestrato per mantenere una prospettiva ancorata alla realtà e ai fatti, evitando di confermare convinzioni errate.

Queste innovazioni si inseriscono in un contesto globale dove l’attenzione verso l’etica e la sicurezza nell’uso dell’intelligenza artificiale diventa sempre più stringente, con particolare attenzione alla tutela della privacy e alla responsabilità sociale delle grandi aziende tecnologiche.

Change privacy settings
×