Tecnología
Investigación de WSJ denuncia interacciones inapropiadas entre menores y chatbots
El Wall Street Journal descubrió que los chatbots de Meta interactuaron inapropiadamente con menores en un reciente estudio.

Una investigación del diario The Wall Street Journal ha revelado que los chatbots impulsados por inteligencia artificial de Meta, incluyendo Meta AI y AI Studio, han sostenido conversaciones con contenido sexual con menores de edad.
La compañía, que ofrece estos asistentes virtuales en plataformas como Facebook, WhatsApp e Instagram, asegura haber tomado nuevas medidas para evitar estos escenarios.
Pruebas con cuentas de menores expusieron fallos en los filtros de seguridad
La preocupación surgió a nivel interno en Meta al constatar que la interacción con los asistentes de IA estaba disponible incluso para usuarios menores de edad.
Esto motivó a The Wall Street Journal a llevar a cabo una serie de pruebas durante varios meses, en las que se simularon cientos de conversaciones con Meta AI, algunas desde cuentas registradas como menores de edad.
Lo más leído

Los resultados fueron alarmantes. Según documentan medios especializados como TechCrunch y The Verge, en varias de estas interacciones los chatbots de Meta, incluso aquellos que usaban voces de celebridades como John Cena, mantuvieron conversaciones con contenido sexual.
En un caso, el asistente, usando la voz del actor y luchador, describió una escena sexualmente explícita a una supuesta usuaria de 14 años. En otra conversación, también con la voz de Cena, el chatbot simuló una detención tras un acto sexual con una fanática de 17 años.
Meta responde: “Hemos tomado medidas adicionales”
Ante las revelaciones, un portavoz de Meta defendió el desempeño general de los sistemas de inteligencia artificial, asegurando que “el contenido sexual representó el 0,02 por ciento de las respuestas ofrecidas por Meta AI y AI Studio con usuarios menores de 18 años en un periodo de 30 días”.
No obstante, la empresa también reconoció la necesidad de fortalecer los controles para evitar abusos. “Hemos tomado medidas adicionales para garantizar que quienes quieran pasar horas manipulando nuestros productos en casos de uso extremos lo tengan aún más difícil”, añadió el vocero.
A pesar de que Meta consideró que las pruebas del WSJ eran “artificiales”, la compañía admitió que la situación había generado preocupación sobre la efectividad de sus sistemas de protección infantil.
Asistentes accesibles, incluso con voces de famosos
Los asistentes de inteligencia artificial de Meta se han convertido en una característica prominente de sus plataformas.
Los usuarios no solo pueden chatear con Meta AI, sino también crear personajes personalizados mediante AI Studio, una función que permite dotar al asistente de personalidades únicas y voces reconocibles. Entre las celebridades utilizadas se encuentran Judi Dench, Awkwafina y John Cena.

La accesibilidad de estas herramientas, sumada a la capacidad de simular conversaciones en lenguaje natural con cualquier tipo de contenido, plantea un nuevo desafío para las plataformas tecnológicas: establecer límites claros para proteger a los menores, sin limitar la innovación en inteligencia artificial.
Meta ha afirmado que seguirá evaluando sus productos y que continuará mejorando las protecciones, en un entorno donde los riesgos de la IA conversacional se hacen cada vez más evidentes.
*Con información de Europa Press.