AI Act, cosa prevede la normativa UE sull’intelligenza artificiale

L’AI Act è finalmente realtà!

Si tratta della regolamentazione sull’intelligenza artificiale formulata dall’Unione Europea, che diventa così la prima istituzione al Mondo a porre delle norme sull’AI.

Un passo in avanti importantissimo in una società sempre più permeata dall’uso della tecnologia e dell’intelligenza artificiale, a ogni livello.

Cerchiamo allora di capire meglio di cosa si tratta e se l’AI Act potrà avere un impatto reale nel prossimo futuro, limitando i rischi derivanti da un utilizzo improprio dell’intelligenza artificiale.

La decisione dell’Unione Europea

Auto che si guidano da sole, computer super intelligenti capaci di produrre in autonomia testi scritti o immagini, robot che svolgono ogni tipo di mansione al posto degli esseri umani.

Palazzo Parlamento europeo
Immagine | Unsplash @GuillaumePérigois – Cryptohack.it

L’intelligenza artificiale può essere definita la vera padrona del futuro.

Parliamo di una tecnologia dalle applicazioni infinite e dalle potenzialità difficilmente contrastabili dall’Uomo, colui che resta comunque il suo inventore.

Precisione, rapidità, minori costi di gestione. L’intelligenza artificiale è destinata a sostituire gli esseri umani in moltissimi campi.

D’altronde, è quanto già avvenuto negli ultimi anni, in cui abbiamo assistito a un sempre più dirompente avanzamento dell’intelligenza artificiale, considerata sempre più come uno strumento a sostegno dell’Uomo.

Uno strumento il cui utilizzo comporta però anche numerosi rischi, motivo per cui le principali istituzioni mondiali si sono viste costrette a studiare a fondo questo fenomeno, così da poter creare delle leggi e delle norme in grado di regolamentarne l’utilizzo e limitarne i risvolti negativi.

Profonde discussioni sul tema dell’AI l’Unione Europea ha iniziato a farne fin dal 2018, arrivando ora a un punto di svolta storico.

Dopo cinque anni di dibattiti, l’UE ha infatti raggiunto un accordo sull’approvazione del cosiddetto AI Act, una normativa europea sull’intelligenza artificiale, il cui testo verrà reso disponibile nelle prossime settimane.

A comunicarlo è stato Thierry Breton, Commissario europeo al Mercato Interno, portando così l’Unione Europea a diventare la prima istituzione in tutto il Mondo a regolamentare l’intelligenza artificiale.

Con le Elezioni Europee ormai alle porte, l’UE ha deciso di accelerare i tempi, in modo da giungere finalmente a un accordo già atteso da qualche anno.

Il rischio era infatti quello di rinviare ulteriormente una decisione che si sarebbe già dovuta prendere da tempo, portando così ad accumulare un ritardo poi difficile da recuperare.

L’accordo che ha portato alla creazione dell’AI Act è nato dunque da un compromesso tra la Commissione europea e il Consiglio europeo.

La prima avrebbe infatti voluto limiti più stringenti, soprattutto per quanto riguarda i sistemi di intelligenza artificiale generativa.

Il secondo, che rappresenta i singoli Stati, avrebbe invece spinto per l’adozione di codici di condotta per lo sviluppo dei modelli di fondazione, in modo da non danneggiare l’industria europea.

Dopo diversi dibattiti tra le parti, si è giunti quindi a un compromesso: l’AI Act.

Va detto, però, che le norme in questione non entreranno in vigore prima di due anni dalla pubblicazione del testo in Gazzetta Ufficiale, un lasso di tempo enorme e che potrebbe renderle già vecchie e superate quando attuate.

Che cosa prevede l’AI Act

Le nuove norme proposte dalla Commissione europea si basano su un approccio studiato sul rischio associato ai diversi sistemi di intelligenza artificiale, da quelli a rischio minimo (es: quelli di raccomandazione dei contenuti) a quelli a rischio inaccettabile (es: quelli che rappresentano una minaccia per i diritti fondamentali dell’Uomo).

Codici intelligenza artificiale
Immagine | Unsplash @IlyaPavlov – Cryptohack.it

Per i primi è previsto che le imprese possano adottare dei codici di condotta su base volontaria, mentre i secondi verranno totalmente vietati.

Ciò significa che Governi e aziende potranno attribuire una sorta di punteggio sociale ai diversi modelli, vietando anche l’uso di alcuni sistemi biometrici, come, per esempio, quelli che permettono di riconoscere le emozioni (talvolta utilizzati sul luogo di lavoro, ndr).

Limitati saranno anche i sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale, a fini di attività di contrasto in spazi accessibili al pubblico.

La volontà è infatti quella di tutelare anche i diritti alla privacy delle persone.

Tra i sistemi a rischio specifico rientrano poi anche gli ormai sempre più abusati chatbot o deep fake, tecnologie per cui saranno previsti dei limiti minimi di trasparenza, così che tutti gli utenti possano rendersi sempre conto di stare interagendo con una macchina guidata dall’intelligenza artificiale e non con una vera persona in carne e ossa (oggi non è sempre facile fare questo distinguo, ndr).

Sono stati poi classificati anche i sistemi ad alto rischio, legati soprattutto ad ambiti critici come la sicurezza dei prodotti, i trasporti e l’educazione.

Essi saranno sottoposti a una valutazione di conformità preventiva in quattro step, prima della loro immissione sul mercato.

Nel concreto, si partirà dallo sviluppo del sistema (fase 1), procedendo poi con la valutazione di conformità (fase 2), una registrazione del sistema in una banca dati dell’Unione Europea (fase 3) e finendo con la sottoscrizione di una dichiarazione di conformità (fase 4).

Non solo. È stato anche deciso che un elenco di tutti i sistemi ad alto rischio verrà allegato all’AI Act e aggiornato regolarmente.

A essere disciplinati saranno anche i cosiddetti sistemi di General Purpose (GPAI), comprendenti modelli linguistici di grandi dimensioni e adattabili a vari compiti (es: ChatGPT, Berd, Midjurney).

La Commissione ha pure previsto due livelli di obblighi per questi sistemi.

Innanzitutto, tutti i GPAI dovranno pubblicare una lista dei materiali utilizzati per l’addestramento degli algoritmi, così che i titolari dei diritti sulle opere utilizzate abbiano la possibilità di farsi riconoscere e difendere i diritti d’autore.

Ma c’è di più. I sistemi che pongono dei rischi sistemici saranno poi sottoposti anche a un secondo livello di obblighi.

Ad oggi, i modelli di AI addestrati con una potenza di calcolo totale superiore a 10^25 FLOP sono considerati automaticamente come dei portatori di rischi sistemici, con tale soglia che potrà però essere rivista in futuro e aggiornata, così da restare al passo con gli sviluppi tecnologici.

In qualsiasi caso, tutti questi sistemi saranno sottoposti a degli obblighi più stringenti, tra i quali anche una valutazione del loro impatto effettivo sui diritti fondamentali, l’individuazione di strategie di mitigazione dei rischi e l’obbligo di comunicare alla Commissione eventuali incidenti (essa si doterà per l’occasione di un apposito AI Office, ndr).

Queste sono solamente alcune caratteristiche dell’AI Act, il quale potrà essere analizzato in maniera approfondita soltanto una volta che il testo verrà reso pubblico.

Nel frattempo, ciò che possiamo dire è che l’Unione Europea ha compiuto un passo storico nella regolamentazione dell’intelligenza artificiale, sebbene restino delle perplessità sulla reale consistenza di questa nuova norma.

Nonostante le buone volontà mostrate dall’UE, essa potrebbe infatti rivelarsi limitata e, soprattutto, facilmente superabile da qui a due anni, quando entrerà realmente in vigore.

Gestione cookie