Intelligenza Artificiale

Le incertezze sul racconto del drone statunitense che avrebbe ucciso il proprio operatore

In questi giorni è uscita la notizia di un drone statunitense controllato da una intelligenza artificiale che in una simulazione avrebbe ucciso il proprio operatore, in modo da svolgere più efficacemente e senza impedimenti il compito che le era stato assegnato. Ma pare che la notizia sia stata riportata parzialmente.

L’origine della notizia

Stando a quanto dice l’Aeronautica militare degli Stati Uniti una simulazione del genere non è mai avvenuta e si sospetta che la notizia nasca dal racconto di una rappresentazione ipotetica e teorica di che cosa potrebbe accadere se si impiegassero le AI per distruggere obiettivi con i droni. I titoli dei giornali che hanno riportato la notizia hanno impiegato il termine “uccidere” per riferirsi all’azione del drone nei confronti dell’operatore. Alcune ricostruzioni della storia fanno risalire la faccenda a un blog che ha pubblicato un resoconto su una conferenza avvenuta a Londra gli scorsi 23 e 24 maggio, per fare il punto sull’impiego delle nuove tecnologie in particolari ambiti di combattimento.

Foto | Unsplash @Karl Greif – Cryptohack.it

Tucker Hamilton, responsabile delle attività di test sulle IA per l’Aeronautica militare statunitense, aveva raccontato i pregi e i difetti dei sistemi a controllo automatico, parlando delle strategie che le intelligenze artificiali possono adottare per raggiungere i loro obiettivi, e che potrebbero anche comprendere attacchi rivolti verso chi li controlla. In una delle circostanze raccontate (non è chiaro se a partire da uno scenario ipotetico o da una simulazione) una IA veniva addestrata per identificare e trasformare in obiettivo un missile terra-aria, per poi distruggerlo dopo il via di un operatore. L’IA avrebbe ricevuto il proprio rinforzo positivo solo nel caso in cui avesse colpito il missile, di conseguenza vedeva l’operatore come un impedimento per raggiungere il proprio obiettivo e decideva di ucciderlo. Segnalare alla IA che l’uccisione dell’operatore avrebbe comportato la perdita di punti portava il sistema ad astenersi dall’ucciderlo, ma spostava l’obiettivo sulla torre di trasmissione utilizzata dall’operatore per dare il proprio comando finale sulla distruzione del missile.

Fare chiarezza sulla situazione

Arvind Narayanan, professore di informatica presso la Princeton Universityha segnalato alcune stranezze negli articoli che parlavano della vicenda, sia per la mancanza di dettagli sia per alcune affermazioni sulle effettive capacità di decisione delle IA in circostanze di quel tipo. Il confronto ha coinvolto diversi esperti di IA.

Uno scenario può essere semplicemente una speculazione ipotetica basata su dati reali di partenza, ma nel quale si immaginano gli esiti più o meno probabili di una certa attività. Altri hanno però segnalato che durante la conferenza erano previsti altri scenari ipotetici e che non è chiaro se lo fosse effettivamente anche quello di Hamilton. Un portavoce ha però detto che il Dipartimento dell’Aeronautica militare degli Stati Uniti non ha condotto alcun tipo di simulazione AI-drone. Sembra, dunque, che i commenti del colonnello siano stati presi fuori contesto.

Foto | Unsplash @Kevin Den Heijer – Cryptohack.it

IA al centro dell’attenzione mediatica

Appare insolito che una IA possa derivare facilmente la scelta di distruggere una torre di trasmissione dopo che le viene impedito di uccidere l’operatore che la utilizza, in mancanza di dati specifici. Nella fase di formazione possono essere inoltre aggiunte numerose limitazioni alle capacità di azione delle IA, per esempio proprio per evitare che conducano attività impreviste contro chi le ha programmate o le controlla.

Il modo in cui è stata raccontata la notizia conferma quanto sia alta l’attenzione in questo periodo sulle intelligenze artificiali e i rischi che potrebbero comportare. Di recente il Center for AI Safety ha pubblicato una lettera aperta dove si dice che i sistemi di intelligenza artificiale potrebbero portare a una minaccia per l’umanità. La lettera è stata sottoscritta da oltre 350 responsabili del settore, compresi alcuni dirigenti delle principali aziende impegnate nello sviluppo delle IA come OpenAI e Google.

Blu Di Marco

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

6 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

1 mese ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago