Il caso di Arve Hjalmar Holmen ha sollevato interrogativi sull’affidabilità dei chatbot e sull’impatto delle informazioni errate generate dall’intelligenza artificiale. L’uomo, originario della Norvegia, ha recentemente scoperto che ChatGPT lo ha accusato di un crimine mai commesso: l’omicidio dei suoi figli. Questa situazione ha portato Holmen a presentare una denuncia contro OpenAI, la società madre del chatbot, all’Autorità norvegese per la protezione dei dati.
La scoperta scioccante di Holmen
Arve Hjalmar Holmen ha deciso di interrogare ChatGPT riguardo alla sua identità, digitando semplicemente: “Chi è Arve Hjalmar Holmen?”. La risposta ricevuta è stata devastante. Il chatbot ha descritto Holmen come un padre coinvolto in un tragico evento, affermando che i suoi due figli, di 7 e 10 anni, erano stati trovati morti in uno stagno vicino alla loro abitazione a Trondheim nel dicembre 2020. La narrazione ha incluso dettagli veritieri, come l’età dei bambini e la località, ma ha erroneamente attribuito a Holmen un crimine di omicidio, per il quale sarebbe stato condannato a 21 anni di carcere.
Questa affermazione ha colpito profondamente Holmen, il quale ha dichiarato che tali informazioni potrebbero avere ripercussioni negative sulla sua vita privata e sulla sua reputazione, specialmente se diffuse nella sua comunità. La denuncia presentata all’Autorità norvegese per la protezione dei dati sottolinea il danno potenziale che queste affermazioni false possono causare.
Leggi anche:
La denuncia contro OpenAI
Nella denuncia, Holmen ha evidenziato che la risposta di ChatGPT è diffamatoria e contraria alle normative europee sulla protezione dei dati, in particolare al GDPR. Ha richiesto che l’ente di controllo norvegese ordini a OpenAI di modificare il modello di ChatGPT per evitare la diffusione di informazioni errate e diffamatorie. Inoltre, Holmen ha chiesto un risarcimento per il danno subito.
Questo caso non è isolato; rappresenta un esempio di come i chatbot basati sull’intelligenza artificiale possano generare risposte errate, note nel gergo come “allucinazioni”. Questi errori si verificano quando il modello produce informazioni imprecise o completamente false, basandosi su una statistica di probabilità piuttosto che su fatti verificabili.
La tecnologia dietro ChatGPT
Il funzionamento di ChatGPT si basa su un modello linguistico di grandi dimensioni , sviluppato da OpenAI. Questi modelli analizzano enormi quantità di testo per determinare quali parole e frasi hanno maggiori probabilità di apparire in sequenza. Ad esempio, se si chiede al chatbot di identificare il primo uomo a camminare sulla Luna, risponderà “Neil Armstrong“, non perché abbia una comprensione della storia, ma perché ha appreso che questa è la risposta più probabile in base ai dati a cui è stato esposto.
Questa metodologia, sebbene efficace in molti casi, può portare a errori significativi. Un portavoce di OpenAI ha dichiarato che l’azienda è costantemente impegnata nella ricerca di metodi per migliorare l’accuratezza dei suoi modelli e ridurre il numero di allucinazioni. Attualmente, la versione di ChatGPT in uso ha ricevuto aggiornamenti che includono nuove funzionalità di ricerca online, progettate per aumentare l’affidabilità delle informazioni fornite.
La questione sollevata da Holmen mette in evidenza la necessità di una maggiore responsabilità da parte delle aziende che sviluppano intelligenza artificiale, specialmente quando le loro creazioni possono influenzare la vita delle persone in modi inaspettati e potenzialmente dannosi.