En Hong Kong, un empleado del área financiera de una multinacional transfirió 25 millones de dólares tras una videollamada con lo que parecía ser su director ejecutivo.
Sin embargo, la imagen y la voz al otro lado de la pantalla eran una recreación deepfake creada por ciberdelincuentes. En cuestión de minutos, la organización perdió millones, junto con parte de su reputación y seguridad.
Deepfakes en incremento
Este episodio, ocurrido a principios de año, puso en evidencia la magnitud de la amenaza. Y no es un hecho aislado.
De acuerdo con datos de Sumsub, compañía especializada en verificación de identidad, los intentos de fraude mediante deepfakes crecieron 700 por ciento a nivel global durante el primer trimestre de 2025 respecto al mismo periodo de 2024.
El fenómeno está golpeando con fuerza a bancos, plataformas digitales e incluso a gobiernos, que ahora enfrentan el reto de proteger identidades en un entorno en el que la imitación se confunde con lo real.

De acuerdo con Sumsub, el auge de esta tecnología, capaz de imitar voces y rostros de forma casi idéntica a la realidad, ha colocado a empresas, gobiernos y usuarios ante un desafío: diferenciar lo verdadero de lo falso antes de que sea demasiado tarde.
Deepfakes, cada vez más sofisticados
El avance tecnológico amplifica el riesgo. Herramientas como Veo3 de Google pueden generar en minutos videos sintéticos hiperrealistas con audio perfectamente sincronizado.
Aunque estas plataformas integran medidas como marcas de agua invisibles SynthID para promover un uso ético, nada garantiza que los delincuentes no utilicen estas mismas innovaciones con fines maliciosos.
“Lo que distingue a una empresa segura no es cuántos filtros tiene, sino qué tan rápido puede detectar y bloquear lo que los demás no ven. La detección en tiempo real, más que una tendencia, es una necesidad para sobrevivir en el entorno digital actual”, afirmó Daniel Mazzucchelli, director de Expansión de Sumsub en Latinoamérica.
La urgencia de actuar lo antes posible
En un mundo donde los fraudes digitales ocurren en segundos, la velocidad de reacción lo es todo. La verificación de identidad en tiempo real se ha convertido en un estándar emergente para las organizaciones que buscan crecer a escala global sin comprometer la seguridad.
Esta capacidad permite detectar documentos falsificados, expresiones generadas por IA o patrones de comportamiento inusuales de inmediato. En sectores como la banca, los servicios de criptomonedas o el comercio electrónico, frenar un fraude antes de que escale significa evitar pérdidas millonarias y conservar la confianza de los usuarios.

La verificación en tiempo real también ayuda a cumplir con regulaciones cada vez más estrictas relacionadas con KYC (Know Your Customer) y AML (Anti-Money Laundering), esenciales en mercados internacionales.
Inteligencia artificial: el nuevo escudo
Detrás de esta capacidad inmediata está la inteligencia artificial. Con tecnologías de liveness detection, biometría facial y machine learning, la IA puede diferenciar entre un rostro real y una animación en milisegundos. Analiza movimientos involuntarios como parpadeos, examina metadatos y revisa patrones de comportamiento digital, construyendo defensas prácticamente imposibles de replicar con métodos manuales.
Además, estos sistemas aprenden de cada intento de fraude. Cada anomalía detectada fortalece el modelo predictivo, mejorando su capacidad para anticipar ataques futuros.
Muchas plataformas combinan esta automatización con supervisión humana, creando una defensa en capas que resulta mucho más efectiva.

La clave frente a los deepfakes no está únicamente en reaccionar rápido, sino en anticiparse. Estas son algunas de las acciones para fortalecer sus defensas:
- Incorporar tecnologías de verificación biométrica que validen rasgos únicos del usuario, más allá de contraseñas o documentos.
- Implementar liveness detection para diferenciar entre personas reales y videos sintéticos.
- Evaluar patrones contextuales como ubicación o hábitos de conexión, para identificar actividades sospechosas en tiempo real.
- Usar sistemas de alertas automatizadas y riesgo adaptativo.
- Mantener actualizadas las bases de datos y patrones de fraude.
- Integrar IA y revisión humana en un modelo multilayer.
Es así como, aunque la inteligencia artificial se utilice para perfeccionar los ciberataques, también se emplea para lo contrario: aumentar la seguridad del mundo digital.
“Los sistemas de IA se utilizan desde hace tiempo para la detección de anomalías que puedan indicar la existencia de un ciberataque o de un fraude. Sin embargo, con los nuevos avances, los sistemas de defensa son mucho más precisos a la hora de detectar amenazas cada vez más sofisticadas, permitiendo su prevención y eliminación temprana”, se lee en un informe del banco BBVA.
Añade que la IA también puede utilizarse para automatizar tareas de supervisión de la ciberseguridad, de modo que se puedan hacer más rápido y evitando un gran número de errores humanos.
En este sentido, BBA detalla que usuarios y empresas deben extremar las precauciones para detectar cualquier tipo de engaño antes de que sea tarde, avisar a los interesados cuando se detecte algún intento de fraude, y buscar ayuda especializada cuando se tengan dudas.
Estas acciones no solo reducen riesgos inmediatos, sino que fortalecen la continuidad operativa y la reputación de las empresas, dos de los activos más valiosos en un entorno digital competitivo.
El caso del fraude en Hong Kong es una advertencia clara, incluso las organizaciones más sólidas pueden ser vulneradas por un simple rostro falso. El costo no solo se mide en millones de dólares, sino también en la pérdida de reputación y confianza.
JCC