Kunstmatige waarheden: navigeren door nepnieuws en kunstmatige intelligentie

Index

Een handleiding voor het herkennen van door AI gegenereerde desinformatie en het waarborgen van het recht op vrije en betrouwbare informatie.

In een steeds voller wordend digitaal ecosysteem is nepnieuws niet langer alleen maar slecht geschreven tekst, maar gaat het om complexe constructies die de emotionele stabiliteit van mensen kunnen ondermijnen. Door de opkomst van generatieve kunstmatige intelligentie zijn de kosten voor het op grote schaal verspreiden van desinformatie drastisch gedaald. Volgens het Global Risks Report 2026 van het World Economic Forum wordt door AI aangestuurde desinformatie beschouwd als de grootste wereldwijde bedreiging voor de sociale cohesie in de komende twee jaar.

Dit fenomeen doet zich voor in alle sectoren van een geavanceerde samenleving – van instellingen en de academische wereld tot de overheid en de particuliere sector – en heeft vooral gevolgen voor jongeren onder de dertig. Het gaat niet alleen om nepnieuws, maar om een daadwerkelijke manipulatie van de waarneming die mensen kan isoleren en haat kan aanwakkeren. Uit gegevens van de UNESCO blijkt dat het gebruik van ‘samenvattende inhoud’ het controleren van feiten steeds moeilijker maakt, waardoor een nieuwe vorm van digitale geletterdheid nodig is om te voorkomen dat men verstrikt raakt in fictieve realiteiten.

De anatomie van desinformatie: hoe AI ons manipuleert

Begrijpen hoe kunstmatige intelligentie werkt, is de eerste stap om je niet overweldigd te voelen door een stortvloed aan informatie die te samenhangend lijkt om onwaar te zijn. AI-algoritmen zijn ontworpen om de betrokkenheid te maximaliseren, waardoor er ‘filterbubbels’ ontstaan die onze vooroordelen versterken en sensationeel nieuws uitvergroten.

Het Oxford Internet Institute heeft aangetoond hoe gecoördineerde desinformatiecampagnes gebruikmaken van door AI aangestuurde bots om een niet-bestaande publieke consensus te simuleren, een praktijk die bekendstaat als ‘astroturfing’. Dit wekt bij de gebruiker het gevoel dat hij omsingeld is, waardoor hij zich geïsoleerd voelt in een vertekende werkelijkheid. Het Europees Agentschap voor cyberbeveiliging (ENISA) benadrukt dat deze systemen de waarheid niet ‘begrijpen’, maar slechts reeksen gegevens voorspellen die aannemelijk lijken, waardoor hun overtuigingskracht uiterst gevaarlijk is.

De geopolitiek van desinformatie: AI als wapen voor destabilisatie

Afgezien van de schade die aan individuen wordt toegebracht, is kunstmatige intelligentie een centraal instrument geworden in moderne strategieën voor hybride oorlogsvoering, waarmee het lot van hele naties kan worden beïnvloed zonder ook maar één schot te lossen. Gecoördineerde netwerken van geavanceerde bots worden door staatsactoren ingezet om democratische processen en verkiezingen te verstoren. Volgens de inlichtingendienst van de Europese Unie (INTCEN) is het gebruik van audio- en videodiefakes om compromitterende uitspraken van politieke leiders te simuleren een snel groeiende tactiek die bedoeld is om de publieke opinie te polariseren en het vertrouwen in instellingen te ondermijnen.

This manipulation is not merely aimed at making people believe a lie, but at undermining the very notion that a shared truth exists. The NATO StratCom Centre of Excellence highlights how these ‘information laundering’ operations enable artificially generated content to infiltrate traditional media, making the defence of digital sovereignty a national security challenge.

The technological arms race: detection and digital watermarking

Beyond individual harm, artificial intelligence has become a central tool in modern hybrid warfare strategies, capable of influencing the fate of entire nations without firing a single shot. Coordinated networks of advanced bots are being used by state actors to interfere in democratic processes and elections. According to the European Union Intelligence Service (INTCEN), the use of audio and video deepfakes to simulate compromising statements from political leaders is a rapidly growing tactic to polarize public opinion and undermine trust in institutions.

This manipulation aims not only to make people believe a lie, but to destroy the very idea that a shared truth exists. The NATO StratCom Centre of Excellence highlights how these “information laundering” operations allow artificially generated content to infiltrate traditional media, making the defense of digital sovereignty a national security challenge.


Sources

DARPA. (2025). Semantic Forensics (SemaFor): Protecting the integrity of digital media. Defense Advanced Research Projects Agency. https://www.darpa.mil/program/semantic-forensics
ENISA. (2024). AI and disinfo: Threat landscape and mitigation strategies. European Union Agency for Cybersecurity. https://www.enisa.europa.eu/topics/cyber-threats/threat-landscape 
EU INTCEN. (2024). Hybrid threats and the role of generative AI in geopolitical destabilization. EU Intelligence and Situation Centre. https://www.eeas.europa.eu/eeas/countering-hybrid-threats_en
JRC. (2024). AI, deepfakes and the future of digital trust: Technical solutions and watermarking. Joint Research Centre, European Commission. https://op.europa.eu/it/publication-detail/-/publication/14e669cb-fbae-11ee-a251-01aa75ed71a1/language-en p. 10
NATO StratCom CoE. (2024). The role of AI in state-sponsored disinformation campaigns. NATO Strategic Communications Centre of Excellence. https://www.nato.int/en/what-we-do/wider-activities/natos-approach-to-counter-information-threats 
Oxford Internet Institute. (2024). The global inventory of organized social media manipulation. University of Oxford. https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/12/2019/09/CyberTroop-Report19.pdf p. 4, p.11
UNESCO. (2024). Guidelines for the governance of digital platforms: Safeguarding freedom of expression.https://unesdoc.unesco.org/ark:/48223/pf0000387339 p. 7
World Economic Forum. (2026). The global risks report 2026: 21st edition. https://reports.weforum.org/docs/WEF_Global_Risks_Report_2026.pdf p. 17

Laten we de mensheid verdedigen in het digitale tijdperk

We ontwikkelen samenwerkingsgerichte en innovatieve benaderingen om
mensen in nood te beschermen

/ CYBERNIEUWS

Artikelen & blog

Scroll naar boven