← Voltar para o blog
,

Deepfake-as-a-Service: cómo funciona el fraude con videos falsos y cómo protegerte

Los deepfakes de video ya no son ciencia ficcion. En 2024, un empleado de la firma britanica Arup transfirió 25.6 millones de dolares después de una videollamada con su director financiero y varios colegas. Todos eran falsos. Cada rostro, cada voz, cada gesto fue generado por inteligencia artificial. Nadie ha sido arrestado. El dinero no se recuperó.

Este caso ilustra una tendencia que se acelera a nivel mundial. Según Signicat, los intentos de fraude con deepfakes aumentaron un 2,137% en los últimos tres años. Deloitte proyecta que las pérdidas por fraude impulsado por IA alcanzarán los 40,000 millones de dolares solo en Estados Unidos para 2027. Y lo más preocupante: la barrera de entrada para los criminales es cada vez más baja.

Qué es Deepfake-as-a-Service y por qué debería preocuparte

El término Deepfake-as-a-Service (DaaS) describe un modelo de negocio criminal donde cualquier persona puede comprar herramientas para crear videos y audios falsos convincentes. En mercados de Telegram y la dark web, un kit de identidad sintética completo con rostro generado por IA, muestra de voz clonada y documentación de respaldo se vende por apenas cinco dolares. Un video deepfake personalizado cuesta alrededor de cincuenta dolares.

Empresas documentadas por Cyble y Group-IB alquilan software de intercambio de rostros a organizaciones criminales por entre 1,000 y 10,000 dolares. El resultado es una democratización del fraude donde la habilidad técnica ya no es requisito.

Las cifras que revelan la magnitud del problema

Según Bright Defense, los intentos de fraude con deepfakes representan ahora el 6.5% de todos los intentos de fraude digital, frente al 0.1% de hace tres años. Entrust reporta que los deepfakes constituyen el 40% de todo el fraude biométrico. Resemble AI documentó 2,031 incidentes verificados solo en el tercer trimestre de 2025.

La FTC registró 12,500 millones de dolares en pérdidas por fraude al consumidor en 2024. Según Experian, el 72% de los líderes empresariales clasifica el fraude habilitado por IA entre sus principales amenazas operativas para 2026.

En América Latina, la región experimentó un aumento de diez veces en incidentes de deepfake entre 2022 y 2023, según Sumsub. La combinación de alta penetración de smartphones, uso intensivo de redes sociales y marcos regulatorios en desarrollo crea un terreno fértil para estos ataques.

Como funcionan los ataques

Los atacantes recopilan material público de la víctima: videos en redes sociales, presentaciones corporativas, entrevistas. Con apenas segundos de audio y algunas imágenes, los sistemas de IA generan réplicas convincentes en tiempo real.

En el entorno corporativo, organizan videollamadas donde suplantan a directivos para autorizar transferencias o compartir credenciales. En el ámbito personal, crean videos falsos para extorsión o suplantación de identidad ante instituciones financieras.

Según el investigador Siwei Lyu, las voces sintéticas actuales poseen entonación natural, ritmo, pausas y ruido de respiración que las hacen prácticamente indistinguibles del hablante original.

Como protegerte del fraude con deepfakes

Ante cualquier solicitud inusual por videollamada, confirma por un canal diferente. Si tu jefe te pide una transferencia por video, llámalo por teléfono. Si un familiar te contacta pidiendo dinero urgente, verifica con otro miembro de la familia.

Reduce tu huella digital. Cada video y audio que publicas es material potencial para crear un deepfake. Revisa la configuración de privacidad de tus cuentas y limita el contenido público.

Establece palabras clave familiares. Acuerda con tu círculo cercano una palabra secreta que solo ustedes conozcan para verificar identidades en emergencias.

Desconfía de la urgencia. Si alguien te presiona para actuar inmediatamente sin verificar, es una señal de alerta.

Utiliza una app de mensajería segura con cifrado extremo a extremo. Las plataformas que protegen tus comunicaciones dificultan que los atacantes intercepten o manipulen tus conversaciones. PhizChat ofrece cifrado extremo a extremo, no almacena metadatos y opera sin vinculación a número telefónico, eliminando vectores de ataque que los estafadores explotan habitualmente. Puedes leer más sobre como los criminales utilizan estas técnicas en nuestro artículo sobre ingeniería social en WhatsApp.

El fraude con deepfakes está ocurriendo ahora, a escala industrial. Cualquier persona con un smartphone puede ser víctima. La combinación de educación, verificación y herramientas seguras como PhizChat es la mejor defensa disponible hoy.

Preguntas frecuentes

Qué es un deepfake de video?

Es un video generado o manipulado por inteligencia artificial que replica la apariencia y voz de una persona real, utilizado frecuentemente para fraude y suplantación de identidad.

Cuánto cuesta crear un deepfake?

En mercados ilegales, un kit básico cuesta apenas cinco dolares y un video personalizado alrededor de cincuenta dolares.

Como puedo saber si una videollamada es un deepfake?

Busca inconsistencias en movimientos faciales, parpadeo irregular, bordes borrosos alrededor del rostro y desincronización entre labios y audio.

Qué app de mensajería es más segura contra estas estafas?

Una app con cifrado extremo a extremo que no requiera número telefónico, como PhizChat, reduce significativamente la superficie de ataque.

Baixe o PhizChat. É gratuito.

Disponivel para Android e iOS.

100% gratuito . Sem anuncios . Seus dados ficam seus

Descubra mais sobre PhizChat

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading