Tecnología

Decir estas frases al contestar una llamada aumenta significativamente el riesgo de ser víctima de estafas en 30 segundos

Este fenómeno es utilizado por los delincuentes para cometer fraudes, extorsiones y estafas en múltiples países.

Mary Nelly  Mora Escamilla

Mary Nelly Mora Escamilla

Periodista en Semana

7 de mayo de 2025, 6:02 p. m.
Los estafadores utilizan esta voz clonada en contextos manipulativos.
Los estafadores utilizan esta voz clonada en contextos manipulativos. | Foto: Getty Images

En los últimos tiempos, las estafas digitales han experimentado una evolución significativa gracias a los avances tecnológicos, los cuales permiten emular de manera sorprendentemente precisa las características humanas.

Una de las técnicas más preocupantes es la clonación de voz mediante la inteligencia artificial (IA), que está ganando terreno como un método sofisticado para manipular a las personas, poniendo en riesgo tanto su seguridad personal como financiera.

La clonación de voz emplea modelos de IA para crear reproducciones exactas de la manera en que una persona habla, en algunos casos con apenas 30 segundos de audio. Estos sistemas aprenden a partir de grabaciones de voz, analizando patrones vocales, ritmo, entonación y timbre, generando imitaciones que pueden resultar casi indistinguibles del original.

Este tipo de suplantación, en la que la voz de alguien es artificialmente replicada, puede llevarse a cabo incluso con fragmentos breves de audio, lo que la convierte en una amenaza creciente y peligrosa.

Estas herramientas de clonación vocal se han diseñado inicialmente con fines legítimos, como la creación de doblajes automáticos, asistentes virtuales adaptados a las necesidades de los usuarios o para mejorar la accesibilidad de personas con discapacidades. No obstante, también se están utilizando con propósitos maliciosos, lo que abre nuevas puertas a posibles fraudes y delitos cibernéticos.

Las estafas telefónicas evolucionan con IA, pero una “frase segura” ayuda a detectar fraudes.
Los fraudes con clonación de voz aumentan, y una “frase segura” puede ser clave para evitar engaños. | Foto: Getty Images

Basta con unos pocos segundos de grabación, obtenidos a partir de videos en redes sociales, mensajes de voz de aplicaciones de mensajería o incluso llamadas interceptadas, para generar réplicas digitales de una voz humana.

La imitación resultante puede emplearse de dos formas principales: una es mediante mensajes pregrabados que los delincuentes utilizan para engañar a sus víctimas, y la otra, mucho más compleja, es en tiempo real, lo que permite a los atacantes interactuar con las personas en vivo, haciéndose pasar por alguien de confianza, como un familiar o un conocido, lo cual genera un nivel de engaño mucho más convincente.

Las consecuencias de ser víctima de suplantación de identidad pueden ser devastadoras.
Las consecuencias de ser víctima de suplantación de identidad pueden ser devastadoras. | Foto: Getty Images

Esta práctica se ha vuelto especialmente peligrosa, ya que las imitaciones vocales son cada vez más precisas y difíciles de detectar.

En un informe publicado en 2023, la Comisión Federal de Comercio de Estados Unidos (FTC) alertó sobre el aumento de este tipo de estafas, atribuyéndolo a los avances en la capacitación de modelos de inteligencia artificial generativa. Según la entidad, incluso fragmentos cortos de audio disponibles públicamente en internet pueden ser suficientes para recrear una voz de manera convincente, lo que aumenta el riesgo de ser víctima de estos engaños.

Además de las fuentes más directas, existen métodos menos obvios para obtener muestras de voz. Uno de los más comunes es realizar una llamada telefónica en la que el destinatario no conteste, sino que simplemente escuche.

En este tipo de situaciones, cuando la persona intenta obtener respuesta con frases como “¿Hola?”, “¿Quién está ahí?”, o “No se oye bien”, acaba generando fragmentos de audio que luego pueden ser capturados, grabados y utilizados para crear una imitación vocal que podría ser manipulada con fines fraudulentos.