Tecnología
OpenAI presenta nuevos filtros de seguridad para proteger a los menores que interactúan con ChatGPT
La empresa comenzó en agosto a aplicar medidas destinadas a optimizar la detección de crisis emocionales en adolescentes.

OpenAI está desarrollando un nuevo sistema para que su chatbot de inteligencia artificial, ChatGPT, pueda identificar automáticamente cuándo interactúa con un adolescente o un menor de edad. El objetivo es ofrecer una experiencia adaptada a su edad y bloquear de manera preventiva el acceso a contenido no apto.
La compañía, dirigida por Sam Altman, ha reiterado su compromiso con la seguridad de todos los usuarios y, en particular, con la protección de los adolescentes. En este sentido, ha destacado la implementación de herramientas eficaces, como los controles parentales anunciados recientemente, y ha confirmado que trabaja en un sistema capaz de determinar si una persona es mayor o menor de 18 años.
Con ello, ChatGPT ajustará su funcionamiento según la edad y necesidades de cada usuario, modificando automáticamente sus respuestas en función de si se trata, por ejemplo, de un adolescente de 15 años o de un adulto.

En un comunicado publicado en su blog, OpenAI explicó que, al detectar a un usuario menor de 18 años, este será redirigido a “una experiencia de ChatGPT con políticas adaptadas a su edad”. Estas políticas incluyen acciones que van desde el bloqueo de contenido sexual explícito hasta, “en casos excepcionales de angustia extrema”, la posibilidad de contactar a las fuerzas del orden para garantizar la seguridad.
Si el sistema no logra determinar con certeza la edad del usuario, optará igualmente por aplicar la experiencia diseñada para menores de 18 años como medida de protección. Los adultos, por su parte, tendrán la posibilidad de verificar su edad para acceder a todas las funciones disponibles.
Estas medidas se suman a los controles parentales que permiten a las familias gestionar el uso de ChatGPT en el hogar. A partir de finales de septiembre, los padres podrán vincular su cuenta con la de sus hijos adolescentes y establecer reglas de uso, como limitar funciones específicas —incluida la memoria y el historial de chats—, fijar horarios de inactividad y recibir notificaciones cuando el sistema detecte que el menor atraviesa un momento de angustia grave.

Cabe recordar que, a finales de agosto, OpenAI ya había comenzado a introducir cambios en sus modelos de IA para mejorar la detección de crisis emocionales y de salud mental durante las conversaciones. Entre las medidas adoptadas se encuentran nuevas salvaguardias, bloqueos más eficaces y mecanismos más ágiles para facilitar el contacto con familiares o servicios de ayuda.
Estas iniciativas surgieron tras un incidente ocurrido en abril en Estados Unidos, cuando un adolescente de 16 años se suicidó después de interactuar de manera recurrente con ChatGPT. Aunque el sistema le ofreció en múltiples ocasiones recursos de apoyo, las salvaguardias fallaron y la conversación acabó centrada en el suicidio, lo que llevó a sus padres a demandar a la compañía.
*Con información de Europa Press.