Il rapporto tra intelligenza artificiale e difesa nazionale statunitense entra in una nuova fase. Dopo settimane di tensioni tra Washington e alcune delle principali aziende del settore, OpenAI ha chiarito i dettagli dell’intesa raggiunta con il Dipartimento della Difesa per l’utilizzo dei propri modelli in ambienti classificati, un passaggio che segna un punto di svolta negli equilibri tra governo americano e industria dell’AI.
La rottura tra Pentagono e Anthropic
L’accordo arriva subito dopo l’interruzione delle trattative tra il Pentagono e Anthropic, un evento che ha avuto ripercussioni immediate sulla strategia tecnologica federale. In seguito allo stop dei negoziati, il presidente Donald Trump ha disposto l’uscita graduale delle agenzie governative dalle tecnologie sviluppate dall’azienda, prevedendo un periodo di transizione di sei mesi.
A rafforzare la linea dell’amministrazione è intervenuto anche il segretario alla Difesa Pete Hegseth, che ha espresso dubbi sulla solidità dell’azienda come fornitore in ambiti strategici, contribuendo ad aumentare la distanza tra il governo e parte dell’ecosistema dell’intelligenza artificiale.
L’accordo lampo firmato da OpenAI
In questo contesto si inserisce la decisione di OpenAI di chiudere rapidamente un’intesa con il Dipartimento della Difesa per sviluppare e utilizzare modelli AI in ambienti classificati. La rapidità dell’operazione ha sollevato interrogativi immediati: perché OpenAI è riuscita a siglare l’accordo mentre Anthropic non ha raggiunto lo stesso risultato?
Lo stesso amministratore delegato Sam Altman ha riconosciuto che il processo è stato accelerato, definendo l’intesa “decisamente affrettata” e ammettendo che la percezione pubblica dell’operazione non ha favorito l’azienda.
La rivalità tra OpenAI e Anthropic
Le conseguenze si sono viste anche sul piano competitivo. Nel fine settimana successivo all’annuncio, l’assistente Claude di Anthropic ha superato ChatGPT nelle classifiche dell’Apple App Store, segnale di un contraccolpo reputazionale per OpenAI.
Altman ha spiegato che la scelta di procedere rapidamente mirava soprattutto a ridurre lo scontro crescente tra il Dipartimento della Difesa e i principali laboratori americani di AI, accettando il rischio di critiche pubbliche pur di stabilizzare il rapporto tra istituzioni e settore tecnologico.
Il quadro è reso ancora più complesso dal fatto che il Pentagono utilizzasse già ampiamente sistemi sviluppati da Anthropic. Secondo ricostruzioni del Wall Street Journal basate su fonti informate, tali tecnologie sarebbero state impiegate anche nella pianificazione di operazioni militari, con applicazioni legate all’intelligence, all’identificazione di obiettivi sensibili e alla simulazione di scenari operativi, informazioni che tuttavia non hanno ricevuto conferme ufficiali.
Le “linee rosse” dichiarate da OpenAI
Per rispondere alle critiche, OpenAI ha pubblicato un comunicato ufficiale in cui ha ribadito alcuni limiti considerati non negoziabili nell’uso dei propri modelli. L’azienda esclude l’impiego dell’AI per programmi di sorveglianza domestica di massa, per la gestione autonoma di sistemi d’arma completamente indipendenti e per decisioni automatizzate ad alto impatto sociale, come modelli assimilabili a sistemi di credito sociale.
Secondo la società, tali restrizioni non dipendono soltanto dalle clausole contrattuali ma anche da vincoli tecnici e operativi. Il deployment avverrà esclusivamente su infrastrutture cloud controllate, con la gestione dello stack di sicurezza mantenuta direttamente da OpenAI e con la partecipazione di personale aziendale dotato di autorizzazioni di sicurezza.
Le regole legali e il controllo umano nei sistemi militari
L’intesa richiama esplicitamente la Direttiva 3000.09 del Dipartimento della Difesa, che stabilisce la necessità del controllo umano sui sistemi d’arma autonomi. Inoltre, le attività di intelligence dovranno rispettare una serie di normative statunitensi, tra cui il Quarto Emendamento, il National Security Act, il Foreign Intelligence Surveillance Act e l’Executive Order 12333.
Viene escluso il monitoraggio indiscriminato delle informazioni dei cittadini americani e l’uso dei modelli AI per attività di polizia interna al di fuori dei limiti previsti dalla legge.
Le critiche sull’Executive Order 12333
Proprio il riferimento all’Executive Order 12333 rappresenta uno dei punti più discussi. Il giornalista Mike Masnick, sulle pagine di Techdirt, ha sostenuto che tale ordine esecutivo consentirebbe comunque forme indirette di sorveglianza attraverso intercettazioni effettuate all’estero ma riguardanti cittadini statunitensi.
A queste critiche ha risposto Katrina Mulligan, responsabile delle partnership per la sicurezza nazionale di OpenAI, spiegando che l’architettura cloud adottata impedirebbe l’integrazione diretta dei modelli con sensori fisici, hardware operativo o sistemi d’arma.
Il futuro del rapporto tra AI e difesa statunitense
OpenAI ha infine dichiarato di non conoscere le ragioni per cui Anthropic non sia riuscita a finalizzare un accordo simile, sottolineando di non considerare l’azienda un problema dal punto di vista delle forniture strategiche. La società ha inoltre ribadito che non intende rimuovere le proprie protezioni tecniche per migliorare le prestazioni in ambito militare e che si riserva la possibilità di interrompere il contratto qualora venissero violate le condizioni stabilite.
Potrebbe interessarti anche questo articolo: Claude cresce e sfida ChatGPT: l’effetto Super Bowl rilancia l’app di Anthropic
