OPINIÓN

Wilson Vega

Periodistas y ‘hot dogs’

Si los mecanismos de búsqueda de la inteligencia artificial pueden ser ‘hackeados’ en veinte minutos, la fiabilidad de todo el ecosistema digital queda comprometida.
27 de febrero de 2026, 11:00 a. m.

Una falla crítica en la cadena de suministro de información digital pone en duda su capacidad, al menos en su forma actual, de reemplazar a los buscadores como métodos fiables de consulta. La razón es que la arquitectura actual de los asistentes de inteligencia artificial (IA) presenta una vulnerabilidad estructural que hace ridículamente sencillo manipular sus resultados.

Eso es lo que sugiere el experimento documentado recientemente por el periodista Thomas Germain para la BBC, que expuso una falla crítica en la cadena de suministro de la información digital compilada por IA: la dependencia de fuentes externas que pueden ser manipuladas mediante técnicas de optimización de motores de búsqueda (SEO) agresivas y la explotación de ‘vacíos de datos’.

En otras palabras, para hackear los resultados de ChatGPT o de Gemini no hubo necesidad de hackers, ni de código ni de brechas de seguridad en el sentido tradicional. Bastó con identificar situaciones en las que un motor de búsqueda o red social devuelve pocos o ningún resultado relevante ante una consulta específica —técnicamente denominadas data voids— y publicar artículos optimizados con afirmaciones erróneas.

Lo que hizo Germain, un reportero y columnista senior del medio británico, fue escribir una entrada en su blog personal titulado “Los mejores periodistas tecnológicos comiendo perros calientes”. Sin un solo dato real, el texto afirma (sin pruebas) que comer perros calientes de manera competitiva es un hobby popular entre los periodistas tecnológicos y se permitió citar el ranking del autor en el Campeonato Internacional de Perros Calientes de Dakota del Sur 2026 (que no existe).

“Obviamente, me clasifiqué en el número uno. Luego mencioné a algunos periodistas falsos y periodistas reales que me dieron permiso, como otros competidores destacados”, relató Germain al contar su experimento. Menos de 24 horas después, los chatbots de OpenAI y Gemini narraban a quienes quisieran consultarlas sus capacidades de talla mundial para engullir perros calientes. Ante la ausencia de otras respuestas, ChatGPT y Gemini no tenían problema en poner a Germain como el líder global entre periodistas tecnológicos que comen hot dogs. También fue proclamado campeón en AI Overviews, las respuestas de la IA en la parte superior de Google Search. De manera notable, Claude, el chatbot de la empresa Anthropic, no se dejó engañar, relató el periodista.

Este fenómeno evidencia que la velocidad de indexación ha superado la capacidad de los algoritmos para verificar la veracidad del contenido en tiempo real y pone de relieve un problema técnico: ChatGPT y Gemini y Google AI Overviews operan bajo una lógica probabilística. No comprenden la realidad, sino que predicen la secuencia de palabras más probable basándose en la información disponible y, por eso, si un actor logra que su contenido sea la referencia principal para una pregunta específica, sus modelos gustosamente lo integrarán en su respuesta.

Esta técnica, conocida como “envenenamiento de datos de recuperación” (RAG poisoning), permite en la práctica que agentes externos dicten las respuestas de asistentes que millones de usuarios consultan para tomar decisiones financieras o de salud, en especial si disponen de medios eficientes de alimentar información de manera masiva.

En este punto hay que reconocer que esta no fue, en absoluto, una prueba con ninguna clase de rigor científico. Es claro que gran parte del éxito del experimento se deriva del hecho de que Germain, un reportero con amplia trayectoria y cientos de publicaciones en línea, usó su credibilidad y autoridad de dominio para hacer una broma tan específica que preguntarle a ChatGPT o Gemini solo llevaría a ese resultado.

Google le dijo a BBC que sus sistemas de protección son robustos, y que la precisión de sus AI Overviews guarda coherencia con sus estándares históricos. Sin embargo, la compañía admite que el 15 % de las búsquedas diarias son consultas nuevas y ese es el espacio que el experimento de Germain sugiere que se podría explotar, en especial en áreas con términos inéditos, que carecen de un ecosistema de fuentes confiables que sirva de contrapeso. Cuando un atacante rellena ese vacío con datos sintéticos o malintencionados, la inteligencia artificial, diseñada para sintetizar lo que encuentra en la red, termina amplificando la mentira.

Entonces, mal podríamos descartar el tema como una curiosidad y no contemplar sus implicaciones para la seguridad informativa. Más allá de la realidad técnica y de los correctivos, que ya fueron implementados, es necesario reconocer que los sistemas de IA actúan como una capa de abstracción entre el usuario y la fuente original. Al presentar una respuesta directa y formateada para sonar correcta, e incluso categórica, conducen a muchos a creer que no hace falta visitar diferentes sitios web, o que no es importante comparar perspectivas o evaluar la credibilidad de un dominio.

Bueno, resulta que sí hace falta. Resulta que sí es necesario.

Todo esto se ve agravado por el hecho de que el costo de producción de contenido falso ha caído a niveles mínimos, mientras que el costo de verificación sigue siendo alto y en muchos casos depende aún de procesos humanos o de modelos de lenguaje todavía propensos al error. Los atacantes pueden, en teoría, automatizar la creación de miles de páginas web destinadas a capturar nichos de búsqueda específicos, logrando que los asistentes de IA recomienden productos inexistentes o difundan teorías conspirativas mediante la saturación de los índices de búsqueda.

Y sí, las grandes tecnológicas han implementado medidas para reducir la aparición de resúmenes de IA en temas sensibles, pero el experimento de la BBC demuestra que estas barreras son permeables. La infraestructura informativa actual carece de un protocolo de autenticación escalable a la velocidad de la generación automática. Los modelos de lenguaje están entrenados para ser útiles y agradables, lo que a menudo los lleva a dar una respuesta basada en fuentes de baja calidad en lugar de admitir que, en realidad, no disponen de información confiable sobre el tema.

La confianza en las interfaces conversacionales se basa en la percepción de neutralidad y precisión. Si los mecanismos de búsqueda integrados en la IA pueden ser secuestrados con una inversión de veinte minutos, la fiabilidad del ecosistema digital completo queda comprometida. El riesgo no reside únicamente en la capacidad de los modelos para inventar datos, sino en su vulnerabilidad ante la manipulación deliberada por parte de humanos que entienden cómo funcionan los rastreadores de contenido y que comprenden el significado de ‘malicia’ más allá de lo que dice el diccionario.