Tecnología
Alerta por peligrosa estafa con IA: suplantan a famosos para engañar a seguidores y cometer fraudes
Los estafadores ahora emplean esta tecnología para crear imitaciones casi perfectas, engañando a fanáticos y usuarios desprevenidos en redes sociales y otras plataformas digitales.

Con los avances de la inteligencia artificial generativa, los delincuentes informáticos han encontrado una forma sofisticada y convincente de engañar a sus víctimas: usar voces clonadas, imágenes falsas y videos manipulados de celebridades para estafar a las personas, ganando su confianza y llegando al punto de vaciar cuentas bancarias.
Esta técnica, conocida como deepfake, ha ganado terreno en plataformas como TikTok, Facebook, Instagram y YouTube, donde los videos falsos pueden viralizarse en minutos y generar ingresos ilícitos para sus creadores. Por ello, si cree que puede confiar en lo que ve o escucha en internet, es momento de pensarlo dos veces y de aprender a distinguir entre lo falso y la realidad.
En ese contexto, de acuerdo con una encuesta de Kaspersky, el 63 % de los encuestados no sabe qué es un deepfake y el 72 % asegura que tampoco sabe cómo reconocer un contenido de este tipo. Esta falta de conocimiento es ampliamente aprovechada por los ciberdelincuentes, pues las estafas mediante mensajes falsos crecieron un 120 % en Colombia en 2024, de acuerdo con el Panorama de Amenazas 2024 de la compañía citada.
¿Cómo funciona esta modalidad de estafa?
Los estafadores crean perfiles falsos o páginas que simulan pertenecer a figuras reconocidas del cine, la música o el deporte. A través de estos perfiles, interactúan con sus víctimas como si fueran las celebridades reales, pidiendo dinero para supuestas causas benéficas, inversiones privadas o regalos exclusivos.
Lo más leído

Algunos incluso prometen “oportunidades exclusivas” para conversar directamente con la celebridad, siempre que el usuario pague una tarifa por adelantado. Estos contenidos buscan captar la atención de internautas mediante el uso de imágenes de figuras famosas que supuestamente promocionan “productos milagrosos” o juegos fraudulentos. Muchos caen en la trampa y terminan ingresando a sitios falsos, donde los delincuentes logran su objetivo.
Las víctimas suelen ser seguidores fieles o personas vulnerables que, motivadas por la emoción o la admiración, no detectan la falsedad del contenido. En muchos casos, las imitaciones son tan realistas que incluso expertos en tecnología han admitido la dificultad de distinguir entre una persona real y una generada por IA.

“Estas estafas logran su objetivo no solo por lo sofisticado de la tecnología detrás de ellas, sino porque muchas personas aún desconocen su existencia o no saben cómo identificarlas. En un mundo digital que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología —y los riesgos que trae consigo— ya no es opcional, es una forma de autoprotección”, señaló Isabel Manjarrez, investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
Sencillos pasos para identificar un video falso
- Prestar atención a los ojos y la boca: Con frecuencia, los deepfakes fallan en replicar los movimientos naturales de los ojos y la boca. Si la persona parpadea muy poco o de forma extraña, o si los labios no están bien sincronizados con el audio, podría tratarse de un video manipulado.
- Prestar detalle a la iluminación y las sombras: Es aconsejable revisar si la luz en el rostro es similar a la que tiene el resto del cuerpo o el fondo en el que el video ha sido grabado. Las sombras que no coinciden o los brillos extraños pueden delatar una edición artificial.
- Escuche el audio con atención: Un tono de voz robótico, cortes bruscos o falta de locución natural son señales de que el audio fue generado o editado con IA. Incluso, algunas ediciones menos cuidadosas que sobreponen un audio al sonido original que no coincide con el movimiento de los labios.
- Buscar señales como: Píxeles borrosos alrededor del rostro, bordes que cambian de forma o incluso gestos corporales poco naturales pueden evidenciar un deepfake malhecho.
- Verificar el origen del video: Antes de dar crédito al video o de compartirlo, es importante revisar si proviene de una fuente oficial. Consulte el perfil oficial de la persona involucrada u otros medios confiables. Si se trata de un video que solo circula en mensajes reenviados o cuentas sospechosas, es falso.