DEEPFAKE

Identificar los contenidos sintéticos y defender la autenticidad de la persona frente a la falsificación de su imagen y su voz.

Introducción

El término «deepfake» hace referencia a contenidos multimedia creados o modificados mediante inteligencia artificial para mostrar a personas reales en situaciones que nunca han ocurrido. Se generan a través de redes neuronales, que maximizan el realismo de la falsificación. Los deepfakes representan una amenaza para la libertad de información, ya que se utilizan para extorsiones, fraudes o daños a la reputación. Su difusión crece rápidamente, y los vídeos sintéticos se duplican en Internet cada seis meses. Más del 90 % de los deepfakes no consentidos consisten en material explícito destinado a perjudicar a las mujeres.
Las empresas también sufren pérdidas considerables a causa de los fraudes con deepfakes de audio, lo que pone de manifiesto las vulnerabilidades de los protocolos de seguridad. Según el JRC (2024), los deepfakes socavan la confianza en las instituciones, convirtiendo la manipulación de la imagen en una herramienta para atacar la dignidad digital.
EFECTO "MÁSCARA"
LATERAL

Desaparición o distorsión de los rasgos faciales cuando el rostro se gira de perfil.

DISCONTINUIDAD
AUDIO-VIDEO

Falta de sincronía entre el movimiento labial y los sonidos producidos.

AUSENCIA DE
PROCEDENCIA

Falta de datos originales (metadatos) que certifiquen dónde y cuándo fue tomada la fotografía.

Efecto «máscara» y pérdida de sincronía

La identificación de contenidos sintéticos en tiempo real requiere el análisis de anomalías visuales y fonéticas. Una señal clave es el «efecto máscara»: los algoritmos de deepfake tienen dificultades para mantener la coherencia de los rasgos faciales durante los movimientos bruscos, lo que provoca fallos técnicos o superposiciones visibles. En el plano auditivo, se observan distorsiones metálicas, falta de variaciones prosódicas y microrretrasos entre la mímica facial y la articulación.
El análisis espectral y la verificación de la huella vocal permiten detectar estas incoherencias: cuando los canales biométricos y acústicos no coinciden, el suceso se clasifica como un incidente de seguridad, lo que activa inmediatamente los procedimientos de interrupción de la comunicación y notificación de la amenaza.

Incoherencia en el origen certificado

Una imagen real tomada por un fotógrafo o un testigo cuenta con una «cadena de custodia» (quién la tomó y con qué medio). Por el contrario, los contenidos sintéticos y los deepfakes suelen propagarse a través de nodos relacionales carentes de historicidad y fiabilidad; en tales casos, la ausencia de metadatos de origen se identifica como un indicador clave de manipulación.
La solución tecnológica más adecuada consiste en adoptar el estándar C2PA, que integra un «pasaporte digital» criptográficamente seguro en los activos para garantizar la transparencia genética. En contextos estratégicos, cualquier hallazgo que carezca de dicha trazabilidad debe someterse al principio de «confianza cero», suspendiendo su difusión hasta la validación definitiva de la fuente, con el fin de preservar la integridad de los procesos de toma de decisiones institucionales.
Defendamos a la humanidad
en la era digital

Creamos iniciativas conjuntas e innovadoras para
proteger a quienes lo necesitan

/ NOTICIAS CIBERNÉTICAS

Artículos y blog

Scroll al inicio