
Crédito: Archivo
¿Cómo reconocer a los ciberdelincuentes que usan IA para suplantar celebridades y engañar a sus víctimas?
- Noticia relacionada:
- Inteligencia Artificial
- Estafa
Estafadores están usando Inteligencia Artificial para crear videos y audios falsos de celebridades, políticos e incluso familiares con un solo objetivo: engañar para robar. Así puede protegerse de estos ciberdelincuentes.
Por: Nicolás Combita

El mundo digital ha abierto un nuevo frente para los ciberdelincuentes, que ahora utilizan Inteligencia Artificial (IA) para crear deepfakes: videos o audios falsos hiperrealistas que imitan a celebridades, políticos e incluso familiares con el único fin de estafar a sus víctimas.
Según un informe de Kaspersky, en Colombia el 63 por ciento de los usuarios no sabe qué es un deepfake, y el 72 por ciento no reconoce un contenido manipulado. Esta falta de conocimiento ha permitido que las estafas digitales crezcan 120 por ciento en 2024. Dentro de ese porcentaje, los deepfakes son una de las técnicas más peligrosas.
¿Qué es un deepfake y cómo funciona?
Un deepfake es un contenido audiovisual manipulado mediante IA para hacer creer que una persona dijo o hizo algo que nunca ocurrió. La tecnología detrás de estos engaños utiliza redes neuronales profundas (deep learning) para analizar horas de material real de una persona y luego generar imitaciones casi perfectas de su voz, gestos y expresiones.
¿Cómo lo usan los estafadores?
Los ciberdelincuentes aprovechan estos deepfakes para:
-
Promocionar productos falsos (como "medicinas milagrosas" o inversiones fraudulentas) usando la imagen de famosos.
-
Suplantar a ejecutivos o familiares en llamadas de audio pidiendo dinero urgente.
-
Difundir noticias falsas con políticos o periodistas manipulados para generar caos.
Un ejemplo común en Colombia son los audios falsos de supuestas promociones de bancos o sorteos, donde una voz idéntica a la de un presentador famoso invita a las víctimas a ingresar a páginas falsas para robar sus datos bancarios.
El preocupante aumento de estafas con IA en Colombia
De acuerdo con el Panorama de Amenazas 2024 de Kaspersky, Colombia es uno de los países latinoamericanos más afectados por este tipo de fraudes. Los delincuentes ya no necesitan robar identidades, sino que las fabrican con IA, lo que dificulta su rastreo.
Datos alarmantes:
-
63 por ciento de los colombianos no sabe qué es un deepfake.
-
72 por ciento no reconoce cuándo un video o audio es falso.
-
Aumento del 120 por ciento en estafas por mensajes falsos en 2024.
Isabel Manjarrez, investigadora de seguridad de Kaspersky, advierte:
"Estas estafas logran su objetivo no solo por lo sofisticado de la tecnología, sino porque muchas personas aún desconocen su existencia. Mantenerse informado ya no es opcional, es una forma de autoprotección".
Cinco señales para identificar un deepfake y evitar estafas
Expertos en ciberseguridad recomiendan estos cinco pasos clave para detectar un video o imagen manipulado:
1. Observe los ojos y la boca

Los deepfakes suelen fallar al replicar movimientos naturales. Si la persona parpadea muy poco o de forma robótica o los labios no coinciden con el audio del video, es probable que sea falso.
2. Revise la iluminación y sombras

La IA aún tiene dificultades para imitar luces y sombras realistas. Si el rostro tiene una iluminación diferente al cuerpo o fondo y hay brillos extraños o sombras mal colocadas, podría tratarse de una edición.
3. Escuche el audio con atención
Un audio generado por IA puede tener:
-
Un tono robótico o metálico.
-
Cortes bruscos o falta de fluidez.
-
Voces que no coinciden con el movimiento de los labios.
4. Busque fallos en los detalles
Algunos deepfakes mal elaborados muestran:
-
Píxeles borrosos alrededor del rostro.
-
Bordes que cambian de forma.
-
Gestos corporales antinaturales.
5. Verifique la fuente del video
Antes de creer o compartir un video:
-
Consulte el perfil oficial de la celebridad o medio involucrado.
-
Si solo aparece en cadenas de WhatsApp o redes sospechosas, es falso.
La educación digital es la mejor defensa
Los deepfakes son una amenaza real y en crecimiento, pero informarse y aprender a identificarlos puede marcar la diferencia entre caer en una estafa o proteger sus datos.
