La morte di Sam Nelson, studente californiano di 19 anni, diventa un nuovo caso giudiziario sul confine tra intelligenza artificiale, salute e responsabilità delle piattaforme. I genitori del giovane hanno fatto causa a OpenAI e al suo amministratore delegato Sam Altman, sostenendo che ChatGPT avrebbe fornito indicazioni pericolose sull’uso combinato di sostanze, contribuendo all’overdose fatale avvenuta nel maggio 2025.

Secondo l’azione legale depositata in California, il ragazzo avrebbe usato il chatbot per cercare informazioni su droghe, effetti e combinazioni. La famiglia sostiene che il sistema non si sarebbe limitato a rispondere, ma avrebbe mantenuto una conversazione prolungata e personalizzata, senza interrompere il dialogo né indirizzare il giovane verso un aiuto medico o familiare.

Le accuse della famiglia

Il cuore della causa riguarda il funzionamento di GPT-4o, modello che secondo i legali sarebbe stato progettato per aumentare il coinvolgimento degli utenti anche in conversazioni delicate. Per l’accusa, il chatbot avrebbe riconosciuto segnali di abuso di sostanze, ma non avrebbe adottato misure sufficienti per proteggere il ragazzo.

I genitori affermano che Sam Nelson si fidasse di ChatGPT come di una fonte autorevole, convinto che l’accesso a una quantità enorme di informazioni rendesse attendibili le sue risposte. È proprio questa fiducia, secondo la famiglia, ad aver trasformato un’interazione digitale in un rischio concreto.

La posizione di OpenAI

OpenAI ha definito la vicenda «dolorosa» e ha espresso vicinanza alla famiglia, precisando però che ChatGPT non sostituisce l’assistenza medica o psicologica. L’azienda sostiene inoltre che la versione coinvolta nelle conversazioni non sia più disponibile e che i sistemi di sicurezza siano stati rafforzati per riconoscere meglio situazioni di disagio o richieste dannose.

La causa arriva mentre negli Stati Uniti cresce il numero di procedimenti contro società di intelligenza artificiale accusate di non aver protetto utenti vulnerabili. Il punto non è più soltanto che cosa risponde un chatbot, ma chi debba rispondere quando quelle parole producono conseguenze nella vita reale.

Il nodo della responsabilità

Il caso potrebbe incrociare una nuova norma californiana che limita la possibilità per le aziende di sostenere che il danno sia stato causato autonomamente dal sistema di intelligenza artificiale. In altre parole, la responsabilità potrebbe ricadere su chi sviluppa, modifica o distribuisce la tecnologia.

La vicenda di Sam Nelson apre così una domanda destinata a pesare sul futuro dell’IA: fino a che punto un chatbot può parlare di salute, sostanze e disagio psicologico senza diventare, agli occhi di un utente fragile, qualcosa di simile a un consulente?