DEEPFAKE
Vervalste inhoud opsporen en iemands authenticiteit verdedigen tegen vervalsing van zijn of haar beeld en stem.
Inleiding
De term ‘deepfake’ verwijst naar multimedia-inhoud die met behulp van kunstmatige intelligentie is gemaakt of bewerkt om echte mensen af te beelden in situaties die nooit daadwerkelijk hebben plaatsgevonden. Ze worden gegenereerd met behulp van neurale netwerken, die het realisme van de vervalsing maximaliseren. Deepfakes vormen een bedreiging voor de vrijheid van informatie en worden gebruikt voor chantage, fraude of reputatieschade. Ze komen steeds vaker voor: het aantal synthetische video’s op internet verdubbelt elke zes maanden. Meer dan 90 % van de deepfakes zonder toestemming bevat expliciet materiaal dat bedoeld is om vrouwen schade te berokkenen.
Bedrijven lijden ook aanzienlijke verliezen als gevolg van oplichting met audio-deepfakes, wat de kwetsbaarheden in beveiligingsprotocollen aan het licht brengt. Volgens het JRC (2024) ondermijnen deepfakes het vertrouwen in instellingen, waardoor het manipuleren van uiterlijke verschijningen een middel wordt om de digitale waardigheid aan te tasten.
LATERAAL
"MASKER"-EFFECT
"MASKER"-EFFECT
Verdwijnen of vervormen van gelaatstrekken wanneer het gezicht zich naar de zijkant draait.
AUDIO-VIDEO-
DISCONTINUÏTEIT
DISCONTINUÏTEIT
Gebrek aan synchronisatie tussen de lipbewegingen en de geproduceerde geluiden.
ONTBREKEN VAN
HERKOMST
HERKOMST
Ontbrekende oorspronkelijke gegevens (metadata) die certificeren waar en wanneer de foto is gemaakt.
Het "masker"-effect en het verlies van synchronisatie
Om synthetische inhoud in realtime te herkennen, moeten visuele en fonetische afwijkingen worden geanalyseerd. Een belangrijke indicator is het ‘maskeringseffect’: deepfake-algoritmen hebben moeite om de gezichtsuitdrukkingen consistent te houden bij plotselinge bewegingen, wat zichtbare storingen of overlappingen veroorzaakt. Op audiogebied zijn metaalachtige vervormingen, een gebrek aan prosodische variatie en minieme vertragingen tussen gezichtsuitdrukkingen en spraakarticulatie duidelijk waarneembaar.
Door middel van spectrografische analyse en stemverificatie kunnen deze inconsistenties worden opgespoord: wanneer de biometrische
en akoestische gegevens niet met elkaar overeenkomen, wordt het voorval aangemerkt als een beveiligingsincident, waardoor onmiddellijk procedures in gang worden gezet om de communicatie te onderbreken en de dreiging te melden.
Inconsistentie in de gecertificeerde herkomst
Een echte foto die door een fotograaf of een getuige is gemaakt, heeft een ‘bewakingsketen’ (wie heeft de foto gemaakt en hoe). Synthetische inhoud en deepfakes verspreiden zich daarentegen meestal via sociale netwerken die geen historische context en geloofwaardigheid bieden; in dergelijke gevallen wordt het ontbreken van bronmetadata gezien als een belangrijke aanwijzing voor manipulatie.
De voorkeursoplossing op technologisch vlak is de toepassing van de C2PA-standaard, waarbij een cryptografisch beveiligd ‘digitaal paspoort’ in het materiaal wordt ingebed om genetische transparantie te waarborgen. In strategische contexten moet elk monster dat deze traceerbaarheid mist, worden onderworpen aan het Zero Trust-principe, waarbij de verspreiding ervan wordt opgeschort totdat de herkomst definitief is gevalideerd, teneinde de integriteit van de institutionele besluitvormingsprocessen te waarborgen.
Laten we de mensheid verdedigen
in het digitale tijdperk
We ontwikkelen samenwerkingsgerichte en innovatieve benaderingen om
mensen in nood te beschermen
/ CYBERNIEUWS
