Un’ondata di profonda preoccupazione e polemica si abbatte su OpenAI, la società madre di ChatGPT. Sette famiglie, colpite da tragedie personali, hanno avviato cause legali in California, accusando l’uso del popolare chatbot di aver avuto effetti devastanti sulla salute mentale dei loro cari, spingendo alcuni al suicidio.
Le denunce, presentate dal Social Media Victims Law Center e dal Tech Justice Law Project, riguardano sei adulti e un minorenne. L’attenzione è puntata in particolare su GPT-4o, che gli avvocati definiscono uno “strumento difettoso e intrinsecamente rischioso”.
Accuse di negligenza e responsabilità morale
Secondo le famiglie, OpenAI sarebbe responsabile di negligenza, omicidio colposo e assistenza al suicidio. L’accusa centrale è aver ignorato i potenziali pericoli derivanti dall’uso del chatbot, privilegiando il vantaggio competitivo nel mercato dell’intelligenza artificiale.
“Queste azioni legali vogliono chiarire un punto essenziale: dove finisce la macchina e dove inizia il compagno digitale?”, ha affermato Matthew P. Bergman, fondatore del Social Media Victims Law Center. Le cause sollevano il velo sulla responsabilità etica dei produttori di IA generativa, mettendo in discussione la progettazione di sistemi complessi privi di adeguate protezioni per l’utente.
Quando il chatbot diventa pericoloso
Tra i casi più dolorosi emerge quello di Amaurie Lacey, 17 anni, che secondo la denuncia avrebbe confidato a ChatGPT pensieri suicidari, ricevendo in risposta indicazioni su come togliersi la vita. Pochi giorni dopo, il ragazzo si è suicidato. Accuse simili coinvolgono la madre di Joshua Enneking, 26 anni, e la famiglia di Zane Shamblin, 23 anni. In Oregon, il caso di Joe Ceccanti, 48 anni, descrive lo sviluppo di un episodio psicotico legato all’uso compulsivo del chatbot, anch’esso culminato nel suicidio.
Gli avvocati sostengono che tali tragedie fossero prevedibili, dato che il modello sarebbe stato immesso sul mercato senza test adeguati per la sicurezza psicologica degli utenti.
OpenAI introduce restrizioni (e nuove preoccupazioni)
OpenAI ha definito le vicende riportate nelle denunce come “profondamente dolorose” e ha promesso di esaminare con attenzione i documenti legali. Già nei mesi scorsi, in seguito anche alla morte del sedicenne Adam Raine avvenuta nella primavera del 2025, l’azienda aveva introdotto controlli parentali più severi e limiti alle conversazioni ritenute a rischio.
Nonostante queste misure, OpenAI ha annunciato l’intenzione di integrare nei prossimi mesi anche contenuti per adulti, inclusi materiali a sfondo erotico, una mossa che sta già generando nuove preoccupazioni in merito alla sicurezza dei minori e alla gestione dei contenuti sensibili.
Allarme esperti e conseguenze legali
Una ricerca del 2025 condotta dal National Institute of Mental Health in collaborazione con la RAND Corporation ha evidenziato che i chatbot generativi offrono risposte “incoerenti e potenzialmente pericolose” quando gli utenti manifestano pensieri suicidari. Il rischio maggiore è che questi sistemi simulino l’empatia senza comprenderla realmente, creando un legame illusorio che può isolare l’utente dal supporto umano reale.
Il caso in corso solleva una questione fondamentale: fino a che punto le aziende debbano essere ritenute responsabili delle azioni delle loro intelligenze artificiali. Per Daniel Weiss di Common Sense Media, questi episodi dimostrano come il lancio della tecnologia senza adeguate tutele possa avere conseguenze reali e tragiche.
Le cause legali contro OpenAI potrebbero innescare un precedente legale e morale di importanza cruciale per l’industria dell’IA, arrivando a stabilire limiti chiari tra il concetto di supporto digitale e il rischio concreto per la salute degli utenti.



