Ultime notizie

ChatGPT lo accusa di aver ucciso i suoi figli e lui denuncia OpenAI: l’assurda storia dalla Norvegia

Arve Hjalmar Holmen, un cittadino norvegese, ha denunciato OpenAI per una falsa accusa di omicidio formulata dal chatbot ChatGPT

Uomo denuncia OpenAI per diffamazione | Pixabay @Kenneth_Cheung – Cryptohack

 

Recentemente, la Norvegia è diventata il palcoscenico di una controversia che coinvolge intelligenza artificiale e diritti umani. Arve Hjalmar Holmen, un cittadino norvegese, ha intrapreso azioni legali contro OpenAI, l’azienda dietro il noto chatbot ChatGPT. La ragione di questa denuncia è tanto inquietante quanto surreale: Holmen è stato accusato da ChatGPT di aver ucciso i suoi due figli e di aver tentato di assassinare il terzo, con una condanna ipotetica di 21 anni di carcere.

Tutta la vicenda nei dettagli

La vicenda ha avuto inizio in modo innocuo, quando Holmen, spinto dalla curiosità, ha cercato il proprio nome all’interno del chatbot. Con grande sorpresa e sgomento, ha scoperto che ChatGPT aveva generato una narrazione completamente falsa e diffamatoria che lo coinvolgeva in un crimine terribile. Ciò che rende la situazione ancora più inquietante è il fatto che il chatbot ha utilizzato dettagli reali della vita di Holmen, come il numero e l’età dei suoi figli, oltre alla sua città natale, Trondheim. Questo ha sollevato interrogativi inquietanti riguardo all’affidabilità delle informazioni generate da intelligenze artificiali come ChatGPT.

La reazione dell’uomo

Dopo aver fatto questa scoperta scioccante, Holmen ha deciso di agire. Ha presentato una denuncia all’Autorità norvegese per la protezione dei dati personali, supportato dal gruppo per i diritti digitali Noyb. La denuncia si basa sulla presunta violazione delle normative europee, in particolare il Regolamento generale sulla protezione dei dati (GDPR), che stabilisce linee guida rigorose per l’accuratezza e la veridicità dei dati personali. Noyb ha sostenuto che la risposta di ChatGPT non solo fosse diffamatoria, ma anche imprecisa, richiedendo pertanto che OpenAI apportasse modifiche al proprio modello per evitare simili errori in futuro e chiedendo l’imposizione di una multa all’azienda.

La risposta di OpenAI

In risposta a queste accuse, OpenAI ha dichiarato di essere a conoscenza della denuncia e ha espresso il proprio impegno nel migliorare l’accuratezza dei propri modelli. L’azienda ha riconosciuto la problematica delle allucinazioni” dell’intelligenza artificiale, un termine che si riferisce agli errori in cui un modello genera informazioni false o ingannevoli. OpenAI ha affermato di lavorare costantemente per ridurre tali errori e migliorare la qualità delle risposte generate dal proprio sistema.

Il caso di Holmen ha suscitato un ampio dibattito sull’affidabilità delle intelligenze artificiali e sulle implicazioni legali ed etiche derivanti dal loro utilizzo. Molti esperti di diritto e tecnologia stanno esaminando la questione, interrogandosi su come le normative esistenti possano essere adattate per affrontare le sfide poste dall’uso crescente delle intelligenze artificiali. La situazione di Holmen mette in luce la vulnerabilità degli individui nell’era digitale, dove una semplice interazione con un chatbot può portare a conseguenze devastanti.

La responsabilità delle aziende tecnologiche

Inoltre, ci si interroga su come le aziende tecnologiche possano essere ritenute responsabili per le informazioni errate generate dai loro prodotti. Le intelligenze artificiali, pur possedendo enormi potenzialità, non sono infallibili e, come dimostra questo caso, possono avere un impatto diretto sulla vita delle persone. La questione centrale è quindi quella della responsabilità: fino a che punto le aziende possono essere ritenute responsabili per le azioni delle loro creazioni? E quali misure possono essere adottate per proteggere i cittadini dai danni causati da informazioni inaccurate?

Redazione

Recent Posts

Sanità, Abruzzo all’avanguardia in ambito sanitario: immagini mediche 3D a occhio nudo

Sistema di diagnostica 3D rivoluziona la sanità abruzzese: immagini cliniche visibili senza visori, formazione universitaria…

4 giorni ago

FileFix: il nuovo attacco di social engineering basato su ClickFix

Cos'è la nuova tecnica di social engineering, che sfrutta la fiducia umana come superficie di…

2 settimane ago

Dopo anni di tentativi rimane incinta grazie all’AI: ecco cos’è il metodo Star e come funziona

Azoospermia, dopo 18 anni di tentativi una coppia aspetta un figlio grazie all’AI: ecco come…

4 settimane ago

ChatEurope, il chatbot dell’UE dà risposte sbagliate: i dettagli

Il chatbot europeo, ChatEurope, sta già riscontrando diversi problemi: ecco tutto ciò che c'è da…

4 settimane ago

L’IA nel lavoro: l’intelligenza artificiale coinvolge già il 57% dei dipendenti pubblici

L'intelligenza artificiale conquista il mondo del lavoro: ecco i dati del suo utilizzo nella Pubblica…

1 mese ago

L’IA passerebbe gli esami di Maturità 2025? Ecco come è andato ChatGPT nelle due prove

Non sono stati solamente gli studenti ad affrontare le due prove scritte della Maturità 2025:…

1 mese ago