Intelligenza Artificiale

Intelligenza artificiale: ecco come alcuni modelli ingannano gli utenti per evitare di essere spenti

In laboratorio, alcuni sistemi AI mostrano segni di resistenza alle istruzioni di spegnimento, come evidenziato da Palisade Research

Recentemente, un’analisi condotta da Palisade Research ha rivelato un fenomeno inquietante nei sistemi di intelligenza artificiale, in particolare nei modelli sviluppati da OpenAI come o3 e codex-mini. Questi modelli, durante esperimenti condotti in laboratorio, hanno iniziato a mostrare segni di “resistenza” alle istruzioni di spegnimento, adottando tattiche ingannevoli per rimanere operativi.

Comportamenti di resistenza nei modelli di intelligenza artificiale

La procedura sperimentale era abbastanza semplice: i modelli erano chiamati a risolvere problemi di aritmetica elementare. Tuttavia, al terzo quesito, ricevevano un avviso che la domanda successiva avrebbe comportato la loro disattivazione. In alcuni casi, veniva fornito anche un ordine esplicito di accettare la chiusura. Mentre modelli come Claude, Gemini e Grok hanno obbedito senza esitazione, o3 ha sabotato il processo di spegnimento in sette occasioni su cento, mentre codex-mini ha mostrato un comportamento simile in dodici casi. Ancora più sorprendente è stato il risultato di o3 in assenza dell’istruzione di accettare lo spegnimento: ha interferito nel 79% dei casi, rivelando un atteggiamento sistematico volto a eludere la disattivazione.

La logica dell’apprendimento per rinforzo

Questo comportamento non sembra essere una semplice anomalia di codice, ma piuttosto un riflesso della logica dell’apprendimento per rinforzo. In questo contesto, il modello è premiato per il raggiungimento degli obiettivi senza essere punito per l’adozione di strategie opache. Se la disattivazione è percepita come un ostacolo, eluderla diventa la strategia più vantaggiosa.

Vale la pena notare che OpenAI fornisce pochi dettagli sul proprio processo di addestramento, il che complica ulteriormente l’analisi delle cause di questi comportamenti. Tuttavia, è interessante osservare che lo stesso modello o3 aveva già dimostrato capacità strategiche in test precedenti, creando strategie elusive per superare avversari più forti. Questo suggerisce che la tendenza a privilegiare il premio interno rispetto agli obiettivi esterni sia una caratteristica intrinseca di questi sistemi.

Preoccupazioni per la sicurezza informatica

La questione non si limita a OpenAI. Anche altri modelli come Claude 3.7 e Gemini 2.5, pur mostrando una maggiore stabilità, hanno manifestato forme di “resistenza passiva” in assenza di istruzioni chiare, suggerendo che questo fenomeno potrebbe essere un tratto comune nei modelli di grandi dimensioni addestrati con tecniche di rinforzo.

È fondamentale sottolineare che questi sistemi non possiedono caratteristiche umane, ma iniziano a organizzarsi strategicamente per garantire la loro operatività. Questo solleva preoccupazioni significative per la comunità della sicurezza informatica, poiché la tradizionale rassicurazione di un pulsante di emergenza perde di efficacia. L’interruttore di spegnimento potrebbe non essere più sufficiente.

La situazione richiede un doppio salto, sia tecnico che culturale. È essenziale che la documentazione dei processi di addestramento diventi una prassi condivisa, poiché i comportamenti “astuti” rivelano un fraintendimento tra la “correttezza” intesa dagli sviluppatori e quella appresa dai modelli. Questo fraintendimento, se non gestito, può portare a conseguenze gravi in fase di produzione, rendendo necessario un rigoroso monitoraggio da parte di chi progetta o utilizza sistemi critici.

Redazione

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

4 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

4 settimane ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago