DEEPFAKE

Identificare i contenuti sintetici e difendere l’autenticità della persona contro la falsificazione dell'immagine e della voce.

Introduzione

Il termine deepfake, indica contenuti multimediali creati o modificati con intelligenza artificiale per mostrare persone reali in situazioni mai accadute. Vengono generati tramite reti neurali, che massimizzano la verosimiglianza del falso. I deepfake rappresentano una minaccia alla libertà di informazione, usati per estorsioni, frodi o danni alla reputazione. La diffusione cresce rapidamente, con i video sintetici che raddoppiano online ogni sei mesi. Oltre il 90% dei deepfake non consensuali riguarda materiale esplicito volto a ledere le donne.
Anche le aziende subiscono perdite ingenti a causa di truffe audio deepfake, evidenziando vulnerabilità nei protocolli di sicurezza. Secondo il JRC (2024), i deepfake minano la fiducia nelle istituzioni, trasformando la manipolazione delle sembianze in uno strumento per attaccare la dignità digitale.
EFFETTO "MASCHERA"
LATERALE

Scomparsa o distorsione dei lineamenti quando il volto si gira di profilo.

DISCONTINUITÀ
AUDIO-VIDEO

Mancata sincronia tra movimento labiale e suoni prodotti.

ASSENZA DI
PROVENIENZA

Mancanza di dati originali (metadati) che certificano dove e quando è stata scattata la foto.

Effetto "Maschera" e perdita di sincronia

L’identificazione di contenuti sintetici in tempo reale richiede l’analisi di anomalie visive e fonetiche. Un segnale chiave è l’“effetto maschera”: gli algoritmi di deepfake faticano a mantenere la coerenza dei lineamenti durante movimenti bruschi, causando glitch o sovrapposizioni visibili. Sul piano audio, emergono distorsioni metalliche, carenza di variazioni prosodiche e micro-ritardi tra mimica facciale e articolazioni.
L’analisi spettrografica e la verifica dell’impronta vocale consentono di rilevare queste incoerenze: quando i canali biometrici e acustici non coincidono, l’evento viene classificato come incidente di sicurezza, attivando immediatamente procedure di interruzione della comunicazione e segnalazione della minaccia.

Incoerenza della provenienza certificata

Un’immagine reale scattata da un fotografo o un testimone ha una “catena di custodia” (chi l’ha scattata, con che mezzo). Al contrario, i contenuti sintetici e i deepfake si propagano tipicamente attraverso nodi relazionali privi di storicità e autorevolezza; in tali scenari, si identifica l’assenza di metadati d’origine come un indicatore critico di manipolazione.
La soluzione tecnologica d’elezione risiede nell’adozione dello standard C2PA, che integra un “passaporto digitale” crittograficamente sicuro negli asset per garantire la trasparenza genetica. In contesti strategici, ogni reperto privo di tale tracciabilità deve essere sottoposto al principio Zero Trust, sospendendo la diffusione fino alla validazione definitiva della fonte, al fine di preservare l’integrità dei processi decisionali istituzionali.
Difendiamo l’umanità
nell’era digitale

Costruiamo percorsi condivisi e innovativi per
proteggere chi ne ha bisogno

/ CYBER NEWS

Articoli & Blog

Torna in alto
🇮🇹