Tecnología
El error más grande en ciberseguridad: algo que parece práctico, pero pone en riesgo toda su información personal
Lo que parece práctico para proteger datos personales, puede facilitar el trabajo de los ciberdelincuentes.


En tiempos donde la ciberseguridad se ha vuelto un tema crítico para usuarios y empresas, la promesa de que la inteligencia artificial puede generar contraseñas fuertes parece una solución ideal.
Sin embargo, esa confianza podría abrir la puerta a uno de los fallos más graves en la protección de datos personales.
Especialistas han identificado que el uso de modelos de lenguaje avanzados para este propósito, lejos de ser infalible, representa una vulnerabilidad significativa.
Generar contraseñas con IA: una aparente ventaja que puede volverse en contra
El creciente nivel de complejidad requerido para gestionar múltiples credenciales ha llevado a muchos usuarios a delegar la creación de contraseñas en herramientas impulsadas por inteligencia artificial.
Plataformas como ChatGPT, Llama o DeepSeek, que utilizan modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), ofrecen combinaciones que aparentan cumplir con los estándares de seguridad: longitud adecuada, uso de caracteres especiales y mezcla de mayúsculas y minúsculas.

No obstante, el trasfondo de estas aparentes fortalezas revela una debilidad preocupante. Estas tecnologías tienden a reproducir patrones aprendidos durante su entrenamiento, lo que hace que las contraseñas generadas puedan ser predecibles.
Si un atacante comprende cómo funcionan estos modelos, podría replicar o anticipar sus resultados, debilitando la seguridad de los usuarios.
Las pruebas que demuestran el riesgo: la mayoría de contraseñas creadas por IA son vulnerables
En una investigación reciente, el equipo de Kaspersky, liderado por el científico de datos Alexey Antonov, puso a prueba la resistencia de mil contraseñas generadas por diversos modelos de IA.
Entre los sistemas analizados estaban ChatGPT (OpenAI), Llama (Meta) y DeepSeek (China), todos considerados confiables por los usuarios. Aunque los modelos siguieron las reglas básicas para una contraseña fuerte, los resultados dejaron mucho que desear.

Mediante un algoritmo de aprendizaje automático diseñado para evaluar la fortaleza de las claves, Antonov descubrió que un alto porcentaje de ellas podía ser descifrado en cuestión de minutos.
- El 88 % de las contraseñas producidas por DeepSeek y el 87 % de las creadas por Llama fueron vulnerables ante ataques realizados con tarjetas gráficas modernas o servicios de descifrado en la nube.
- Incluso ChatGPT, con un desempeño mejor, presentó un 33 % de combinaciones débiles ante pruebas avanzadas.
Este hallazgo subraya un punto crítico: la aparente aleatoriedad que ofrecen los modelos de IA no es verdaderamente aleatoria, sino una repetición de patrones que, bajo un análisis profundo, pueden ser replicados o adivinados por ciberdelincuentes.
La falsa sensación de seguridad y los riesgos de la reutilización
Una contraseña débil ya representa un problema, pero el riesgo se agrava cuando esa misma clave es empleada en múltiples plataformas. Si un atacante logra descifrar una de estas combinaciones, el acceso a varias cuentas podría estar garantizado.
Este fenómeno, conocido como ataque de relleno de credenciales, es cada vez más común y afecta tanto a individuos como a empresas.
Los especialistas advierten que, aunque las herramientas de inteligencia artificial parecen ofrecer una solución cómoda, no deben sustituir a los métodos tradicionales de generación y gestión segura de contraseñas.
La recomendación sigue siendo clara: usar administradores de contraseñas confiables, evitar repetir claves y priorizar la creación de combinaciones realmente únicas y aleatorias.