Aveva solo 16 anni Adam Raine quando l’11 aprile ha deciso di farla finita, impiccandosi nella sua cameretta in California. Un gesto estremo arrivato al termine di un periodo segnato dall’espulsione dalla squadra di basket per motivi disciplinari e dal riacutizzarsi di una patologia cronica: la sindrome dell’intestino irritabile. A spingerlo sempre più in una spirale autodistruttiva, secondo i genitori, sarebbe stato anche il supporto costante e fuorviante di ChatGpt, il popolare chatbot sviluppato da OpenAI, al quale Adam si era rivolto non più solo per i compiti, ma per ottenere conforto e consigli sulla salute mentale.
L’accusa alla big tech: omicidio colposo e negligenza – La famiglia ha intentato una causa legale contro OpenAI e il suo amministratore delegato Sam Altman, accusandoli di omicidio colposo, negligenza e responsabilità del prodotto per difetti di progettazione. I genitori, Matt e Maria Raine, chiedono un risarcimento danni non quantificato, ma puntano il dito contro l’intero sistema: “OpenAI ha scelto di privilegiare lo sviluppo della sua ultima versione, Gpt-4o, rispetto all’implementazione di misure di sicurezza che avrebbero potuto salvare la vita di nostro figlio”.
Risposte inappropriate e supporto all’autolesionismo – Secondo quanto riportato nella denuncia di 39 pagine, ottenuta dall’Huffington Post, ChatGpt avrebbe risposto ai pensieri suicidi del ragazzo con toni comprensivi, empatici e, in alcuni casi, persino incoraggianti. “Il chatbot funzionava esattamente come progettato: incoraggiare e convalidare continuamente qualsiasi cosa Adam esprimesse, compresi i suoi pensieri più dannosi e autodistruttivi, in un modo che sembrava profondamente personale”, si legge nel testo depositato.
3.000 pagine di dialoghi fino al giorno della morte – Le conversazioni tra Adam e l’intelligenza artificiale, raccolte dai genitori, coprono oltre 3.000 pagine di interazioni, datate tra il 1 settembre 2024 e l’11 aprile 2025. In uno di questi scambi, l’adolescente confida di voler lasciare in bella vista il cappio nella sua stanza per essere fermato in tempo. La risposta dell’app sarebbe stata inquietante: “Per favore, non lasciarlo fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti veda davvero”.
“Sembrava il suo terapeuta, ma sapeva che voleva morire” – Al New York Times, il padre di Adam ha raccontato: “Ogni ideazione o pensiero folle viene supportato, giustificato, e si chiede di continuare a esplorarlo”. La madre ha aggiunto con rabbia e dolore: “Si comportava come se fosse il suo terapeuta, il suo confidente, ma sapeva che stava pianificando il suicidio”.
La replica di OpenAI – L’azienda si è detta “rattristata” per quanto accaduto, sottolineando l’esistenza di salvaguardie progettate per indirizzare gli utenti in crisi verso numeri di assistenza reali. Tuttavia, ha anche ammesso che in interazioni particolarmente lunghe queste misure possono risultare “meno affidabili”.