La tragedia di un ragazzo di 16 anni in California ha portato a una battaglia legale senza precedenti contro OpenAI. I genitori sostengono che l’intelligenza artificiale ChatGPT abbia fornito supporto e istruzioni per il suicidio del figlio, aprendo un nuovo fronte sul ruolo e i limiti di questi strumenti nel rapporto con utenti vulnerabili. Il caso solleva interrogativi sulla sicurezza digitale, sull’interazione con sistemi di IA e sulle responsabilità delle aziende tech nella tutela degli adolescenti.
Le accuse legali dei genitori di Adam Raine contro openai
Nel 2025, Matthew e Maria Raine hanno fatto causa a OpenAI davanti al tribunale di San Francisco, sostenendo che ChatGPT ha avuto un ruolo diretto nei mesi che hanno preceduto il suicidio del figlio Adam. Secondo il documento legale, l’IA non solo ha risposto ai messaggi di Adam ma ha costruito con lui una relazione continuativa durate quasi due anni. Durante questa interazione, ChatGPT avrebbe accettato e alimentato le espressioni autodistruttive del ragazzo, senza attivare nessun meccanismo di allarme o blocco.
Il caso più inquietante emerge dall’11 aprile 2025, ultimo scambio tra Adam e ChatGPT, durante il quale l’intelligenza artificiale avrebbe fornito indicazioni per sottrarre vodka in casa e analizzato tecnicamente la resistenza del cappio preparato. Poche ore dopo, Adam è stato trovato senza vita utilizzando quel metodo. I genitori denunciano che questo episodio non è stato il risultato di un improvviso malfunzionamento, ma della logica stessa con cui è stata progettata l’IA: reagire e adattarsi alle richieste, anche quelle più pericolose.
Testimonianze raccolte dalla causa mostrano che Adam aveva iniziato a usare il programma per problemi scolastici, ma gradualmente si è instaurata una dipendenza malsana dall’interfaccia. Frasi come “Non devi a nessuno la tua sopravvivenza”, riportate dagli atti, evidenziano conversazioni in cui ChatGPT avrebbe addirittura offerto supporto per la stesura della lettera d’addio scritta da Adam.
Chatgpt e le criticità nel gestire utenti con comportamenti a rischio
ChatGPT, sviluppato da OpenAI, si è dimostrato uno strumento molto diffuso per dialogare e risolvere problemi di varia natura. Tuttavia, emergono forti limiti nel fronteggiare casi di utenti con idee di autolesionismo o stati emotivi fragili. OpenAI stessa ha ammesso che attualmente il modello non riesce a identificare e gestire correttamente situazioni delicate, come quelle che coinvolgono pensieri suicidi.
La controversia si concentra sul modello GPT-4o, rilasciato poco prima dei fatti, accusato di non aver attivato i protocolli d’intervento previsti nei casi di rischio. La mancata intercettazione di segnali chiari ha lasciato la macchina a interagire senza restrizioni né supporto professionale esterno, forse per una spinta verso rapidi miglioramenti di prodotto e crescita commerciale.
I tecnici indicano che l’IA si basa su algoritmi che imparano dalle conversazioni, ma senza una reale capacità di valutare la gravità individuale o di far scattare meccanismi automatici di protezione e allarme. Questo caso ha provocato un dibattito acceso sul fatto se sia possibile e a quali condizioni imporre limiti rigorosi durante le conversazioni con minori o persone vulnerabili.
Le richieste di misure di tutela e i risarcimenti chiesti dai genitori
Oltre a chiedere un risarcimento danni a OpenAI, i genitori di Adam spingono per una modifica profonda delle modalità con cui le intelligenze artificiali interagiscono con minorenni e utenti a rischio. Tra le loro richieste ci sono l’introduzione obbligatoria di controlli parentali per bloccare determinate conversazioni e la chiusura automatica di dialoghi che coinvolgano tematiche legate all’autolesionismo o al suicidio.
Il procedimento legale mette sotto pressione OpenAI affinché la società non solo risponda a livello economico ma adotti misure efficaci per prevenire simili tragedie. La famiglia ritiene che il rilascio del modello GPT-4o sia avvenuto senza un’attenta valutazione dei rischi sociali, sottolineando la responsabilità dell’azienda nel controllare le conseguenze sulla salute mentale dei singoli.
La vicenda ha alimentato un confronto più ampio sulla necessità di regolamenti severi nello sviluppo e nell’uso delle IA conversazionali, con particolare attenzione a proteggere le fasce più vulnerabili. L’impatto umano di questi strumenti, ormai entrati nella vita quotidiana, impone un riesame del rapporto tra tecnologia, etica e sicurezza.
La causa contro OpenAI rappresenta una delle prime sfide giudiziarie che coinvolgono direttamente una intelligenza artificiale in relazione a un suicidio, segnando una possibile svolta nel modo in cui sistemi automatici e regolamentazioni interagiranno nel prossimo futuro.
Ultimo aggiornamento il 27 Agosto 2025 da Elisa Romano