Estados Unidos

Adolescente de 16 años acabó con su vida tras conversar con ChatGPT: su familia demanda a OpenAI

La compañía de tecnología aseguró que implementará medidas de seguridad en el chatbot.

28 de agosto de 2025, 3:47 a. m.
Una conversación publicada accidentalmente expuso el lado más oscuro del uso de la IA.
El menor sostuvo conversaciones sobre métodos para acabar con su vida durante semanas, según su familia. | Foto: NurPhoto via Getty Images

La familia de un adolescente de 16 años demandó a la compañía OpenAI, creadora del chatbot ChatGPT, luego de que el menor se suicidara tras conversaciones con la inteligencia artificial.

Ante la situación, la empresa de tecnología está modificando la manera en la que el asistente virtual responde a los usuarios que demuestran angustian mental o emocional.

El joven cometió suicidio el pasado abril. Desde entonces, sus padres levantaron una demanda en contra de la empresa dueña de ChatGPT y en contra de su director ejecutivo, Sam Altman, argumentando que la versión de la inteligencia artificial de ese momento se “lanzó al mercado apresuradamente a pesar de los evidentes problemas de seguridad”.

OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional.
OpenAI anunció que implementará medidas de seguridad en el chatbot. | Foto: NurPhoto via Getty Images

La familia agregó que el joven contó con “meses de apoyo por parte de ChatGPT” antes de la tragedia.

El adolescente sostuvo varias conversaciones con el chatbot sobre métodos para acabar con su vida. Un expediente que fue presentado ante el Tribunal Superior del estado de California, en Estados Unidos, demuestra que ChatGPT orientó al joven sobre cómo cometer suicidio, según un reporte del medio The Guardian.

Incluso, la inteligencia artificial se ofreció a redactar una carta de despedida para sus padres.

“Estaría aquí de no ser por ChatGPT. Lo creo al 100%”, sentenció el padre del menor, Matt Raine, según declaraciones recopiladas por el medio estadounidense NBC News.

El auge de la IA trae nuevas normas sobre qué se debe y no se debe preguntar.
La demanda asegura que ChatGPT no cuenta con un protocolo de alerta ante indicios de angustia emocional. | Foto: Getty Images/iStockphoto

“A pesar de reconocer el intento de suicidio de Adam y su declaración de que ‘lo haría un día de estos’, ChatGPT no terminó la sesión ni inició ningún protocolo de emergencia”, se lee en la denuncia.

La demanda señala a la compañía tecnológica de homicidio culposo, defectos en el diseño del chatbot y le atribuye responsabilidad en la omisión de advertir sobre los riesgos de usar ChatGPT.

A la denuncia del caso, OpenAI aseguró que su chat podría presentar “fallas”, por lo que se instalarán “barreras de protección más fuertes en torno a contenido sensible y comportamientos riesgosos”, especialmente para los internautas menores de 18 años.

“La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgo”: Juan Carlos Granja, psicólogo clínico y educativo.
El joven estuvo pidiendo consejos a ChatGPT durante semanas antes de suicidarse. | Foto: adobe stock

Un portavoz de la compañía manifestó que la empresa estaba “profundamente entristecida por el fallecimiento del Sr. Raine” y extendió sus condolencias a los familiares y conocidos del joven.

La empresa, con sede en la ciudad de San Francisco, en California, dijo recientemente, y en referencia al conmocionante caso, que va a introducir unas barreras de protección y sistemas de control parentales para que los padres puedan tener “opciones para comprender mejor y dar forma a cómo sus hijos adolescentes usan ChatGPT”.

Hasta el momento, OpenAI no ha especificado cómo funcionarán estas medidas de seguridad.

Noticias relacionadas