DEEPFAKE

Vervalste inhoud opsporen en iemands authenticiteit verdedigen tegen vervalsing van zijn of haar beeld en stem.

Inleiding

De term ‘deepfake’ verwijst naar multimedia-inhoud die met behulp van kunstmatige intelligentie is gemaakt of bewerkt om echte mensen af te beelden in situaties die nooit daadwerkelijk hebben plaatsgevonden. Ze worden gegenereerd met behulp van neurale netwerken, die het realisme van de vervalsing maximaliseren. Deepfakes vormen een bedreiging voor de vrijheid van informatie en worden gebruikt voor chantage, fraude of reputatieschade. Ze komen steeds vaker voor: het aantal synthetische video’s op internet verdubbelt elke zes maanden. Meer dan 90 % van de deepfakes zonder toestemming bevat expliciet materiaal dat bedoeld is om vrouwen schade te berokkenen.
Bedrijven lijden ook aanzienlijke verliezen als gevolg van oplichting met audio-deepfakes, wat de kwetsbaarheden in beveiligingsprotocollen aan het licht brengt. Volgens het JRC (2024) ondermijnen deepfakes het vertrouwen in instellingen, waardoor het manipuleren van uiterlijke verschijningen een middel wordt om de digitale waardigheid aan te tasten.
LATERAAL
"MASKER"-EFFECT

Verdwijnen of vervormen van gelaatstrekken wanneer het gezicht zich naar de zijkant draait.

AUDIO-VIDEO-
DISCONTINUÏTEIT

Gebrek aan synchronisatie tussen de lipbewegingen en de geproduceerde geluiden.

ONTBREKEN VAN
HERKOMST

Ontbrekende oorspronkelijke gegevens (metadata) die certificeren waar en wanneer de foto is gemaakt.

Het "masker"-effect en het verlies van synchronisatie

Om synthetische inhoud in realtime te herkennen, moeten visuele en fonetische afwijkingen worden geanalyseerd. Een belangrijke indicator is het ‘maskeringseffect’: deepfake-algoritmen hebben moeite om de gezichtsuitdrukkingen consistent te houden bij plotselinge bewegingen, wat zichtbare storingen of overlappingen veroorzaakt. Op audiogebied zijn metaalachtige vervormingen, een gebrek aan prosodische variatie en minieme vertragingen tussen gezichtsuitdrukkingen en spraakarticulatie duidelijk waarneembaar.
Door middel van spectrografische analyse en stemverificatie kunnen deze inconsistenties worden opgespoord: wanneer de biometrische en akoestische gegevens niet met elkaar overeenkomen, wordt het voorval aangemerkt als een beveiligingsincident, waardoor onmiddellijk procedures in gang worden gezet om de communicatie te onderbreken en de dreiging te melden.

Inconsistentie in de gecertificeerde herkomst

Een echte foto die door een fotograaf of een getuige is gemaakt, heeft een ‘bewakingsketen’ (wie heeft de foto gemaakt en hoe). Synthetische inhoud en deepfakes verspreiden zich daarentegen meestal via sociale netwerken die geen historische context en geloofwaardigheid bieden; in dergelijke gevallen wordt het ontbreken van bronmetadata gezien als een belangrijke aanwijzing voor manipulatie.
De voorkeursoplossing op technologisch vlak is de toepassing van de C2PA-standaard, waarbij een cryptografisch beveiligd ‘digitaal paspoort’ in het materiaal wordt ingebed om genetische transparantie te waarborgen. In strategische contexten moet elk monster dat deze traceerbaarheid mist, worden onderworpen aan het Zero Trust-principe, waarbij de verspreiding ervan wordt opgeschort totdat de herkomst definitief is gevalideerd, teneinde de integriteit van de institutionele besluitvormingsprocessen te waarborgen.
Laten we de mensheid verdedigen in het digitale tijdperk

We ontwikkelen samenwerkingsgerichte en innovatieve benaderingen om
mensen in nood te beschermen

/ CYBERNIEUWS

Artikelen & blog

Scroll naar boven