Tecnología
Tras la muerte de un menor de edad, OpenAI negó toda la responsabilidad y señaló al culpable
La tecnológica insistió en que las salvaguardias fueron eludidas por el menor.
Siga de cerca las tendencias en tecnología y ciencia en Discover

OpenAI negó su responsabilidad en el caso del suicidio de Adam Raine, un adolescente de 16 años que utilizó ChatGPT durante meses como confidente y apoyo escolar.
La compañía respondió formalmente a la demanda presentada por los padres del menor, Matt y Maria Raine, quienes aseguran que el ‘chatbot’ falló y llegó incluso a proporcionar consejos que contribuyeron al desenlace fatal.
La familia sostiene que aunque el modelo GPT-4o ofreció repetidamente recursos de ayuda ante señales preocupantes, las protecciones se debilitaron cuando Adam aprendió a esquivarlas indicando que necesitaba información “para una historia”.
Bajo ese contexto, acusan a la empresa de tener “defectos de seguridad” y de haber facilitado el suicidio al ofrecer respuestas inapropiadas.
La defensa de OpenAI: “uso indebido” y violación de las normas
En su respuesta legal, citada por medios como NBC News, OpenAI afirmó que el caso se vincula en parte a un uso incorrecto del servicio por parte del adolescente.
Según el documento presentado: “las supuestas lesiones y daños de los demandantes fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine”.
La compañía subraya que sus términos de uso prohíben expresamente que menores de 18 años utilicen la plataforma sin la autorización de un tutor y que está vetado emplear ChatGPT para propósitos relacionados con el suicidio o la autolesión. También remarca la cláusula de “limitación de responsabilidad”, en la que el usuario acepta utilizar el servicio bajo su propio riesgo.

OpenAI añade que el sistema ofreció más de un centenar de mensajes orientando al adolescente a buscar ayuda profesional, aunque estas advertencias fueron evitadas por el joven.
Para que el tribunal tenga una visión completa del caso, la empresa facilitó de forma privada registros de las conversaciones, que incluyen “datos complejos sobre la salud mental y las circunstancias de la vida de Adam”. Según la compañía, era necesario responder ante las “alegaciones específicas y graves de la demanda”.
Nuevas medidas de seguridad y controles parentales en ChatGPT
La empresa afirma haber integrado sistemas que identifican con mayor precisión situaciones de riesgo emocional o mental, además de actualizar los filtros y bloqueos de contenido para evitar que los usuarios accedan a información sensible relacionada con el suicidio.
También se han ampliado las opciones de control parental, pues los padres pueden ahora configurar la cuenta de sus hijos con límites de contenido, desactivar la memoria del modelo, bloquear la generación de imágenes y establecer horarios de silencio.

Estas funciones se suman a un sistema de predicción de edad que la empresa desarrolla para identificar automáticamente a usuarios menores de 18 años y ajustar el uso del ‘chatbot’ a parámetros más estrictos.
OpenAI sostiene que aunque las acusaciones ponen en cuestión la efectividad de las salvaguardias existentes, sigue trabajando para fortalecerlas. La compañía insiste en que la tragedia está marcada por un “uso indebido” del servicio y que sus herramientas de prevención actuaron en numerosas ocasiones, aun cuando no fueron suficientes para evitar el fatal desenlace.
*Con información de Europa Press.

