Perché ora ChatGPT evita di rovinarti una relazione con una risposta sbagliata

Chat AI e amore

Quando ChatGPT manipola i tuoi sentimenti-cryptohack.it

Franco Vallesi

5 Settembre 2025

OpenAI rivede il comportamento di ChatGPT nelle conversazioni intime: ora l’obiettivo è tutelare il benessere emotivo degli utenti e non solo rispondere con efficienza.

Per molte coppie, l’intelligenza artificiale è diventata una presenza quotidiana, a volte persino decisiva. Come un amico, come un confidente. Per qualcuno, persino come un consulente sentimentale. È successo davvero: alcune relazioni si sono salvate, o sono finite, a causa delle risposte fornite da ChatGPT. E non si tratta solo di ipotesi teoriche: a Los Angeles, una coppia formata da Dom Versaci e Abella Bala ha dichiarato pubblicamente che il chatbot ha avuto un ruolo centrale nel risolvere la loro crisi. Ma proprio questo ruolo ha spinto OpenAI a cambiare tutto.

Quando l’intelligenza artificiale decideva il destino di una coppia

Nel loro racconto, Dom e Abella descrivevano ChatGPT come un “arbitro virtuale”, un’entità neutrale e obiettiva che aiutava a evitare discussioni infinite. Il chatbot diventava la “terza voce” capace di prendere posizione in modo deciso, senza farsi coinvolgere emotivamente. Questo approccio ha però mostrato anche un limite enorme: la freddezza dell’algoritmo.

Le risposte, pur precise e strutturate, spesso apparivano troppo nette, troppo risolutive, soprattutto quando si trattava di domande delicate come “Devo lasciarlo?” oppure “Mi sta tradendo?”. In molti casi, ChatGPT finiva per ridurre a una formula logica questioni che invece richiedevano empatia, ascolto, tempo.

E mentre alcuni utenti si dicevano grati per la chiarezza ottenuta, altri hanno denunciato il contrario: una risposta dell’IA è bastata per scatenare un litigio, porre fine a una relazione, ferire emotivamente chi era in un momento di vulnerabilità.

Restrizioni
Necessari meno algoritmi e più sensibilità-cryptohack.it

Nel luglio 2025, OpenAI ha confermato che qualcosa è cambiato. Ma non si tratta di un nuovo pulsante, né di una funzione visibile nell’interfaccia. È un aggiornamento silenzioso, interno, ma sostanziale. Da oggi, ChatGPT non darà più risposte rigide nelle conversazioni intime. Non giudicherà, non offrirà più “verità” assolute. Il suo comportamento sarà orientato alla cura emotiva dell’utente, attraverso un linguaggio più cauto, meno meccanico, più umano.

L’obiettivo dichiarato è semplice quanto ambizioso: proteggere il benessere emotivo digitale, che oggi è un tema sempre più centrale. L’intelligenza artificiale deve aiutare, sì, ma senza travalicare il ruolo di assistente. Non può essere il terapeuta, né il giudice di una storia d’amore.

Dal punto di vista tecnico, il sistema è stato ricalibrato per riconoscere il peso emotivo delle domande. Se l’utente scrive “Non so se dovrei continuare questa relazione”, il nuovo comportamento del modello sarà quello di accogliere la domanda, riconoscere la complessità del momento, e invitare a riflettere, magari suggerendo un confronto reale con amici, familiari o un esperto.

Un cambiamento influenzato da un uso sempre più personale

Secondo un’analisi interna pubblicata in agosto, oltre il 27% delle interazioni quotidiane con ChatGPT riguarda tematiche personali o emotive. E questo solo nel primo semestre del 2025. Un dato che ha colto di sorpresa anche gli ingegneri di OpenAI, abituati a immaginare l’AI come uno strumento per studiare, lavorare, programmare. In realtà, sempre più persone la usano per parlare dei propri sentimenti, delle proprie insicurezze, delle proprie relazioni.

In questo contesto, la neutralità non basta. Il linguaggio deve essere inclusivo, rispettoso, consapevole. Non servono risposte esatte, ma parole giuste. Ed è qui che entra in gioco il nuovo approccio.

OpenAI ha formato i modelli sulle conversazioni umane reali, migliorando la capacità di “leggere tra le righe” il tono, la sofferenza, il bisogno di supporto. Non si tratta solo di censura o prudenza: è empatia algoritmica, un concetto nuovo, che nel 2025 diventa centrale nel design delle AI conversazionali.

L’aggiornamento del comportamento di ChatGPT segna un passaggio simbolico. La tecnologia si piega all’umanità, non viceversa. Si riconosce che la risposta perfetta non sempre è quella più utile. E che dietro ogni messaggio inviato c’è una persona, non un utente qualsiasi.

Il cambiamento risponde anche a critiche sempre più frequenti: nel 2024, diversi esperti di salute mentale avevano sollevato preoccupazioni etiche sul fatto che chatbot non addestrati alla gestione emotiva potessero diventare pericolosi, soprattutto per i più giovani o fragili. OpenAI, pur senza ammettere errori, ha scelto la via della responsabilità evolutiva.

Nel mondo digitale del 2025, l’intelligenza artificiale non deve solo sapere tutto: deve anche saper ascoltare. E, se necessario, tacere.

Change privacy settings
×