Mundo
¿Elon Musk quiere que la IA de X vaya acorde a sus posiciones “antiwoke”? Se aumenta el debate sobre los sesgos de la herramienta
La IA Grok está adjunta a la red social Xd y allí se generaron comentarios antisemitas.

El magnate ha dicho que la inteligencia artificial con posiciones muy “wok” podría contribuir al declive de la humanidad.
Según xAI, dependencia de X encargada del chatbot, Grok no debe privarse de hacer afirmaciones que sean políticamente incorrectas, siempre que estén bien fundamentadas.

Sin embargo, al parecer esa directriz fue eliminada el martes en la noche, tras horas de no contestar a sus usuarios por el reporte de las respuestas antisemitas.
Grok no tiene una moderación tan fuerte
El chatbot va en línea con lo que Musk pretende que sea X: un espacio para la libre expresión, pero con poca censura y moderación limitada.
Lo más leído
La forma en que el chat responde a los usuarios le da un condimento particular, y también lo es su forma de analizar lo que se le pide.
Medios en Estados Unidos y expertos han puesto en tela de juicio el sesgo que tiene dicha inteligencia artificial; sobre todo, cuestionan su tendencia a proliferar discursos que pueden catalogarse como de odio.
New York Post recopila que Elon Musk ya había sido acusado de antisemitismo en 2023, cuando enfrentó una reacción violenta después de darle cabida a una conspiración que involucra judíos.
Así que, por eso se preguntan si la IA ha sido programada en vía a al tipo de opinión que emite el multimillonario estadounidense.

Si bien el magnate menciona que la IA incluso puede aportar bastante al campo de la ingeniería y matemáticas por su eficiencia, sus funciones son más conocidas por responder a peticiones de usuarios en X.
El debate ético de los chatbots de las IA
Aunque se presentan como herramientas objetivas, su diseño y funcionamiento están inevitablemente influenciados por los sesgos humanos, ya sea en la recolección de datos, en los algoritmos o en los objetivos para los que fueron programadas.
Según expertos de Harvard, los modelos de lenguaje están entrenados con textos provenientes de internet, libros y artículos, que contienen visiones dominantes, prejuicios históricos y desigualdades estructurales.
Si la mayoría de los datos reflejan una cosmovisión occidental, capitalista o patriarcal, la IA reproducirá esos patrones, invisibilizando otras voces.
Además, las empresas que desarrollan estas tecnologías suelen estar sujetas a intereses comerciales o políticos, lo que puede llevar a una moderación sesgada o a la priorización de ciertos discursos.
¿Puede una IA ser verdaderamente imparcial si los humanos no lo somos?
Quizá se está lejos de esa premisa. Por eso, es crucial que el desarrollo de la inteligencia artificial incluya diversidad de perspectivas, auditorías éticas y transparencia en sus procesos.