Tecnología

La palabra que nunca debe decir durante una llamada para evitar que criminales roben sus cuentas bancarias

Los delincuentes están aprovechando las capacidades de la IA para llevar a cabo fraudes y suplantaciones de identidad.

Valentina Castañeda Sierra

Valentina Castañeda Sierra

Periodista en Semana

28 de marzo de 2025, 6:21 p. m.
Es peligroso contestar llamadas de números desconocidos.
Es peligroso contestar llamadas de números desconocidos. | Foto: Getty Images

La llegada de la inteligencia artificial ha transformado diversos aspectos de la vida cotidiana, ofreciendo beneficios significativos al facilitar la automatización de tareas y optimizar el tiempo, lo que, a su vez, incrementa la productividad. No obstante, este avance también ha dado pie a una serie de retos en el ámbito de la seguridad digital, ya que la IA es susceptible de ser empleada por ciberdelincuentes con fines fraudulentos, incluyendo el robo de identidad y la ejecución de estafas.

En particular, los delincuentes cibernéticos han comenzado a explorar métodos para aprovechar la inteligencia artificial en la creación de fraudes y suplantaciones de identidad, lo cual representa una amenaza creciente tanto para individuos como para organizaciones a nivel global.

Entre los desarrollos más preocupantes en este campo se encuentran los llamados deepfakes, videos y audios manipulados que, gracias al uso de redes neuronales generativas, pueden llegar a ser extremadamente realistas. Con estas tecnologías, los ciberdelincuentes tienen la capacidad de crear representaciones visuales y sonoras de personas que nunca han existido o de alterar las imágenes y voces de personas reales, lo que facilita el engaño.

Las contraseñas pueden ser vulneradas fácilmente.
Las contraseñas pueden ser vulneradas fácilmente. | Foto: Getty Images

A través de audios falsificados, los estafadores pueden hacerse pasar por familiares cercanos de una víctima, solicitando dinero o acceso a información confidencial. Este fenómeno subraya la importancia de que las personas sean cautelosas con las llamadas que reciben, así como con la información que comparten, dado que una simple palabra dicha en una conversación podría convertirse en la clave para que los ciberdelincuentes graben fragmentos de audio y los utilicen para suplantar la voz de la persona y realizar fraudes, como solicitar préstamos, falsificar autorizaciones en contratos o llevar a cabo transacciones bancarias fraudulentas.

En este contexto, los expertos recomiendan evitar responder afirmativamente a preguntas durante una llamada telefónica, como, por ejemplo, con la palabra “sí”, especialmente si la llamada proviene de un número desconocido, ya que no se tiene certeza de quién está al otro lado de la línea.

Así usan la inteligencia artificial para estafar

El proceso de creación de una suplantación de voz comienza con la recopilación de muestras de la voz de la víctima, las cuales se utilizan luego para entrenar el sistema de IA a fin de imitar los patrones de habla de la persona. Esta etapa resulta fundamental, ya que el sistema debe no solo reproducir los sonidos de las palabras, sino también captar los matices de la voz, el tono, las inflexiones y las pausas que confieren singularidad a cada individuo. Algunos sistemas avanzados incluso son capaces de replicar la cadencia emocional de la voz, lo que otorga un realismo aún mayor a la imitación.

Una vez entrenado, el sistema es capaz de generar audios sintéticos en los que la persona clonada parece decir lo que el texto ingresado le dicte. Estas grabaciones pueden ser empleadas en fraudes, como la realización de llamadas falsas o el envío de mensajes de voz engañosos. De esta forma, el audio puede ser utilizado para robar grandes sumas de dinero, acceder a cuentas bancarias u obtener información confidencial.

Las estafas laborales son fraudes o engaños relacionados con el ámbito del empleo.
Adoptar estas precauciones contribuirá significativamente a proteger la integridad de la identidad digital de las personas. | Foto: Getty Images

Para mitigar el riesgo de ser víctima de suplantación de voz, es crucial implementar diversas estrategias de seguridad, tales como:

  • Verificación de identidad: Siempre que sea posible, se deben emplear métodos de verificación adicionales, como contraseñas, autenticación multifactor (MFA) o preguntas de seguridad, para reforzar la autenticación de la voz.
  • Cuidado con las llamadas no solicitadas: Ante la recepción de una llamada inesperada en la que se solicite información confidencial o dinero, es recomendable colgar y contactar al número oficial de la entidad para confirmar la solicitud.
  • Monitoreo de cuentas bancarias: Es esencial mantener un monitoreo constante de las cuentas financieras, así como configurar alertas para detectar de inmediato cualquier transacción sospechosa.
  • Uso de tecnologías de seguridad avanzadas: Algunas instituciones financieras y servicios en línea han comenzado a implementar medidas de seguridad más sofisticadas, como análisis biométricos de voz, que son capaces de detectar intentos de suplantación.

Adoptar estas precauciones contribuirá significativamente a proteger la integridad de la identidad digital de las personas y a prevenir el fraude relacionado con la suplantación de voz.