Tecnología

OpenAI presenta nuevos filtros de seguridad para proteger a los menores que interactúan con ChatGPT

La empresa comenzó en agosto a aplicar medidas destinadas a optimizar la detección de crisis emocionales en adolescentes.

17 de septiembre de 2025, 12:39 p. m.
Nuevas restricciones de ChatGPT para menores de edad.
Nuevas restricciones de ChatGPT para menores de edad. | Foto: Getty Images

OpenAI está desarrollando un nuevo sistema para que su chatbot de inteligencia artificial, ChatGPT, pueda identificar automáticamente cuándo interactúa con un adolescente o un menor de edad. El objetivo es ofrecer una experiencia adaptada a su edad y bloquear de manera preventiva el acceso a contenido no apto.

La compañía, dirigida por Sam Altman, ha reiterado su compromiso con la seguridad de todos los usuarios y, en particular, con la protección de los adolescentes. En este sentido, ha destacado la implementación de herramientas eficaces, como los controles parentales anunciados recientemente, y ha confirmado que trabaja en un sistema capaz de determinar si una persona es mayor o menor de 18 años.

Con ello, ChatGPT ajustará su funcionamiento según la edad y necesidades de cada usuario, modificando automáticamente sus respuestas en función de si se trata, por ejemplo, de un adolescente de 15 años o de un adulto.

OpenAI anuncia cambios en sus modelos y ChatGPT para afrontar con seguridad las situaciones de crisis mental y emocional.
OpenAI implementa un sistema para bloquear contenido no apto en menores que usen ChatGPT. | Foto: NurPhoto via Getty Images

En un comunicado publicado en su blog, OpenAI explicó que, al detectar a un usuario menor de 18 años, este será redirigido a “una experiencia de ChatGPT con políticas adaptadas a su edad”. Estas políticas incluyen acciones que van desde el bloqueo de contenido sexual explícito hasta, “en casos excepcionales de angustia extrema”, la posibilidad de contactar a las fuerzas del orden para garantizar la seguridad.

Si el sistema no logra determinar con certeza la edad del usuario, optará igualmente por aplicar la experiencia diseñada para menores de 18 años como medida de protección. Los adultos, por su parte, tendrán la posibilidad de verificar su edad para acceder a todas las funciones disponibles.

Estas medidas se suman a los controles parentales que permiten a las familias gestionar el uso de ChatGPT en el hogar. A partir de finales de septiembre, los padres podrán vincular su cuenta con la de sus hijos adolescentes y establecer reglas de uso, como limitar funciones específicas —incluida la memoria y el historial de chats—, fijar horarios de inactividad y recibir notificaciones cuando el sistema detecte que el menor atraviesa un momento de angustia grave.

El acceso de los niños a chatbots con IA puede representar un peligro para ellos.
ChatGPT adaptará sus respuestas según la edad del usuario para proteger a adolescentes. | Foto: Creación de la IA de Bing image creator

Cabe recordar que, a finales de agosto, OpenAI ya había comenzado a introducir cambios en sus modelos de IA para mejorar la detección de crisis emocionales y de salud mental durante las conversaciones. Entre las medidas adoptadas se encuentran nuevas salvaguardias, bloqueos más eficaces y mecanismos más ágiles para facilitar el contacto con familiares o servicios de ayuda.

Estas iniciativas surgieron tras un incidente ocurrido en abril en Estados Unidos, cuando un adolescente de 16 años se suicidó después de interactuar de manera recurrente con ChatGPT. Aunque el sistema le ofreció en múltiples ocasiones recursos de apoyo, las salvaguardias fallaron y la conversación acabó centrada en el suicidio, lo que llevó a sus padres a demandar a la compañía.

*Con información de Europa Press.

Noticias relacionadas