OPINIÓN

Diana Lorena Gómez Zuluaga

Shadow AI: el riesgo invisible que ya entró a las empresas

En la columna, una reflexión sobre el uso no autorizado de herramientas de inteligencia artificial en entornos laborales y explica por qué esta práctica, conocida como Shadow AI, representa uno de los mayores riesgos silenciosos para la seguridad, la privacidad y la sostenibilidad de las organizaciones.
13 de enero de 2026, 9:38 p. m.

Durante los últimos meses he visto cómo la inteligencia artificial se ha integrado de manera acelerada en la rutina laboral de muchas personas. Herramientas como ChatGPT, Copilot o Gemini se usan para redactar correos, analizar documentos, resumir informes o tomar decisiones más rápido. El problema no es la tecnología. El problema aparece cuando ese uso ocurre sin autorización, sin criterios claros y sin conciencia de los riesgos. A eso se le conoce como Shadow AI, y es mucho más común de lo que estamos dispuestos a admitir.

El Shadow AI ocurre cuando los empleados utilizan herramientas de inteligencia artificial externas para realizar tareas del trabajo, sin que la organización lo sepa o lo haya aprobado. En apariencia, la intención es buena: ser más productivos, responder más rápido, cumplir mejor. Pero en la práctica, esta conducta abre una puerta silenciosa a riesgos que muchas empresas aún no dimensionan.

Uno de los más delicados es la fuga de información. Cuando copiamos textos, informes, bases de datos o información de clientes en plataformas externas, perdemos el control sobre esos datos. No siempre sabemos dónde se almacenan, quién puede acceder a ellos o cómo se reutilizan. A eso se suma la pérdida de privacidad, porque muchas de estas herramientas registran conversaciones, documentos o referencias que pueden identificar a personas, procesos o estrategias corporativas.

También existe un riesgo legal y normativo que suele subestimarse. El uso de servicios no autorizados puede contradecir políticas internas y, en algunos casos, incumplir regulaciones de protección de datos. Y, como si fuera poco, esta exposición facilita ataques cibernéticos más sofisticados, en los que la información compartida se convierte en insumo para fraudes, suplantaciones o campañas dirigidas.

Por eso insisto en que la conversación sobre inteligencia artificial en las empresas no puede limitarse a eficiencia y velocidad. Tiene que incluir gobernanza, seguridad y responsabilidad. Usar solo las herramientas aprobadas, las cuales deben contratarse con absoluta claridad sobre el manejo de la información, evitar compartir información confidencial en plataformas externas, no ingresar credenciales corporativas en servicios no verificados y consultar a las áreas de tecnología o seguridad antes de adoptar nuevas soluciones no es burocracia: es protección.

La inteligencia artificial puede ser una gran aliada para la productividad y la innovación, pero solo si se usa de forma consciente y segura. Evitar el Shadow AI no es resistirse al cambio tecnológico; es entender que proteger la información también es proteger el negocio, a las personas y la confianza que sostiene a toda organización.

Diana Lorena Gómez, vicepresidenta administrativa Banco Agrario



Noticias Destacadas