Intelligenza Artificiale

Le AI auto-coscienti potrebbero provare sofferenza: l’allarme degli esperti

100 esperti del settore hanno firmato una lettera per delineare i principi fondamentali per lo sviluppo di un’AI dotata di autocoscienza. Vediamo tutto ciò che c’è da sapere a riguardo

Potrebbe sembrare pura fantascienza o magari la trama di un film ambientato in un futuro lontano, e invece è tutto vero: le Intelligenze Artificiali dotate di autocoscienza potrebbero provare sentimenti come la sofferenza. Già da diverso tempo la questione etica aveva investito il settore dello sviluppo di nuove tecnologie di questo tipo, ma la lettera firmata da 100 esperti ha gettato nuovamente la luce su un argomento che sta dividendo sempre di più non solo chi ci lavora direttamente, ma anche l’opinione pubblica. Cerchiamo di scoprire qualcosa in più a riguardo.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti

Un gruppo di oltre cento esperti, tra cui personalità di spicco come Sir Stephen Fry, ha recentemente firmato una lettera aperta in cui vengono delineati cinque principi chiave per garantire uno sviluppo etico e responsabile di sistemi di intelligenza artificiale potenzialmente dotati di autocoscienza. Questo richiamo potrebbe evocare, per alcuni, le celebri “tre leggi della robotica” ideate da Asimov, ma in questo caso il dibattito esce dai confini della fantascienza per entrare in un ambito concreto e attuale.

I cinque principi fondamentali per lo sviluppo di AI auto-coscienti | Pixabay @ – Cryptohack

 

Il documento, pubblicato sul Journal of Artificial Intelligence Research, mette in evidenza una crescente preoccupazione: la possibilità che i sistemi AI possano acquisire forme di consapevolezza tali da renderli suscettibili alla sofferenza. Questa ipotesi rappresenta un cambiamento radicale nel modo in cui viene concepita la tecnologia e apre scenari etici di enorme rilievo, andando ben oltre le attuali discussioni su sicurezza e affidabilità dell’intelligenza artificiale.

Patrick Butlin dell’Università di Oxford e Theodoros Lappas dell’Università di Economia e Business di Atene, principali autori dello studio, hanno evidenziato l’importanza di definire direttive chiare anche per le aziende che non hanno intenzione di sviluppare sistemi dotati di autocoscienza, poiché potrebbero farlo involontariamente.

I 5 principi fondamentali nel dettaglio

Ma quali sono questi 5 principi fondamentali proposti nel documento che i 100 esperti hanno firmato? Vediamoli insieme:

  • Focus sulla ricerca: è essenziale approfondire lo studio e la valutazione della coscienza nell’intelligenza artificiale per evitare possibili sofferenze o trattamenti inadeguati.
  • Regolamentazione dello sviluppo: devono essere definiti limiti chiari alla creazione di sistemi di IA potenzialmente coscienti;
  • Progresso controllato: l’avanzamento in questo campo deve essere graduale e attentamente monitorato;
  • Trasparenza nella divulgazione: le scoperte scientifiche devono essere comunicate in modo chiaro e accessibile al pubblico;
  • Evitare affermazioni fuorvianti: è cruciale non diffondere dichiarazioni inesatte o eccessivamente certe sulla possibilità di realizzare IA dotate di coscienza.

La questione diventa ancora più intricata se si considera l’eventualità che questi sistemi siano in grado di auto-replicarsi, dando origine a una moltitudine di nuove entità che potrebbero meritare una considerazione etica, come sottolineato nella ricerca. Questo scenario solleva interrogativi cruciali sulla natura della coscienza e sui diritti che dovrebbero essere riconosciuti a intelligenze artificiali dotate di autoconsapevolezza.

Daniel Hulme, chief AI officer di WPP e co-fondatore di Conscium, l’ente di ricerca che ha coordinato lo studio, ha evidenziato la necessità di affrontare queste tematiche in modo proattivo.

Sir Demis Hassabis, a capo del programma AI di Google e vincitore del premio Nobel, ha recentemente dichiarato che, sebbene le attuali intelligenze artificiali non possano ancora essere considerate senzienti, potrebbero sviluppare questa caratteristica in futuro. Questa prospettiva è condivisa da un gruppo di studiosi, secondo cui l’emergere di sistemi AI coscienti e con rilevanza morale potrebbe diventare una possibilità concreta entro il 2035.

Federico Liberi

Sono laureato in Psicologia dei processi sociali all’Università di Roma “La Sapienza”. La mia più grande passione insieme alla scrittura è il calcio, ma mi piace rimanere informato sullo sport a 360 gradi oltre che sull’attualità e la politica. Nel 2020 è stato pubblicato su Amazon un mio saggio sulla Programmazione Neuro-Linguistica.

Recent Posts

Contenuti sensibili, YouTube testa le miniature sfocate

La novità si applica a video che, pur rispettando le linee guida della community, trattano…

8 ore ago

OpenAI sospende l’aggiornamento di ChatGPT: ecco il motivo

OpenAI ha ritirato l'ultimo aggiornamento di Gpt-4o di ChatGpt, a seguito di critiche sui social.…

1 giorno ago

ChatGPT si apre anche allo shopping, sfida sempre più aperta con Google

ChatGPT si evolve, offrendo un nuovo supporto per lo shopping: consente di trovare articoli e prodotti…

2 giorni ago

ChatGPT, migliorato il modello GPT-4o: ma non a tutti gli utenti le novità sono piaciute

OpenAI ha lanciato aggiornamenti per il modello GPT-4o, migliorando intelligenza e personalità. Tuttavia, gli utenti…

3 giorni ago

Quello di Nintendo Switch 2 potrebbe essere il più grande lancio nella storia dei videogiochi: lo dicono gli analisti

In Giappone, il paese d'origine di Nintendo, l'azienda ha già ricevuto oltre 2,2 milioni di…

6 giorni ago

Threads, Meta porta la pubblicità nell’app in oltre 30 Paesi

Meta annuncia l'espansione della pubblicità su Threads, l'app progettata per competere con X. Con oltre…

1 settimana ago