Superintelligenza IA, allarme sicurezza nella big tech: i rischi

Superintelligenza IA

Superintelligenza IA | Pixxabay @pingingz - Cryptohack

Federico Liberi

5 Dicembre 2025

Un nuovo report del Future of Life Institute denuncia gravi lacune nei protocolli di sicurezza delle big tech sulla superintelligenza IA

L’avanzamento rapido e incessante dell’intelligenza artificiale (IA), in particolare della superintelligenza artificiale (ASI), solleva preoccupazioni crescenti riguardo alla sicurezza e alla governance di queste tecnologie. Un recente report invernale del Future of Life Institute (FLI) evidenzia come molte delle principali aziende tecnologiche mondiali non adottino ancora standard di sicurezza adeguati per mitigare i rischi connessi alla superintelligenza, ponendo in serio pericolo il controllo umano su questi sistemi.

Superintelligenza IA: il report AI Safety Index e le carenze delle aziende leader

L’AI Safety Index, pubblicato dal FLI, valuta otto colossi del settore – tra cui OpenAI, Anthropic e Google DeepMind – sulla base di 35 indicatori di sicurezza suddivisi in sei macroaree critiche, analizzando esclusivamente dati pubblici. Se alcune realtà come Anthropic e OpenAI mostrano risultati più convincenti, il report denuncia un diffuso deficit di misure efficaci in tema di sicurezza esistenziale, ovvero quelle strategie che impediscono scenari catastrofici legati alla perdita di controllo di sistemi ASI.

Le aziende, secondo il FLI, forniscono garanzie insufficienti, spesso superficiali e lontane dagli standard richiesti dalla normativa europea sull’IA, mancando di trasparenza riguardo test di sicurezza, governance interna e gestione degli incidenti. Ciò ostacola il lavoro di esperti e regolatori nell’identificazione e gestione dei rischi sistemici.

L’appello globale per uno sviluppo responsabile dell’IA

Parallelamente, al World Meeting on Fraternity tenutosi recentemente in Vaticano, un gruppo eterogeneo di studiosi, leader tecnologici e attivisti, tra cui nomi di spicco come Yoshua Bengio, Stuart Russell e Max Tegmark, ha rivolto un appello a Papa Leone XIV e ai leader mondiali per promuovere un utilizzo dell’IA che rispetti la dignità umana e la sicurezza globale. Il documento sottolinea la necessità che l’IA rimanga uno strumento sotto controllo umano, vietando l’affidamento di decisioni di vita o morte a sistemi autonomi e ribadendo che solo gli esseri umani devono detenere responsabilità morali e giuridiche.

L’appello indica inoltre principi fondamentali quali la trasparenza, la responsabilità ecologica, l’assenza di monopolio tecnologico e la prevenzione di una corsa globale incontrollata allo sviluppo di sistemi sempre più potenti. Viene proposta una moratoria sullo sviluppo di IA superintelligenti fino a quando non sarà possibile garantire la sicurezza e il consenso pubblico.

Le tensioni nel settore: proteste e richieste di moratoria

Ad accompagnare queste riflessioni istituzionali, emergono segnali di protesta attiva nel settore. Attivisti come Guido Reichstadter e Michael Trazzi hanno intrapreso scioperi della fame davanti alle sedi di Anthropic e Google DeepMind, esigendo un incontro con i rispettivi CEO e chiedendo una sospensione globale dello sviluppo di IA avanzate. Questa mobilitazione riflette l’allarme crescente per quella che viene definita una “corsa fuori controllo” verso tecnologie che potrebbero sfuggire al controllo umano.

Il timore è condiviso da importanti figure del mondo tecnologico, tra cui Elon Musk, che insieme a oltre mille esperti e imprenditori ha firmato una lettera aperta pubblicata dal Future of Life Institute. La missiva chiede una pausa di almeno sei mesi nell’addestramento dei sistemi più avanzati, per elaborare protocolli condivisi di sicurezza e prevenire scenari distopici simili a quelli narrati in film di fantascienza come “Terminator”.

Change privacy settings
×