Verità sintetiche: navigare tra fake news e intelligenza artificiale

Indice dei contenuti

Guida per riconoscere la disinformazione generata dall’IA e proteggere il diritto a un’informazione libera e sicura.

In un ecosistema digitale sempre più saturo, le fake news non sono più solo testi mal scritti, ma complessi artefatti capaci di scuotere la stabilità emotiva delle persone. L’avvento dell’intelligenza artificiale generativa ha abbassato drasticamente i costi per la creazione di disinformazione su vasta scala. Secondo il Global Risks Report 2026 del World Economic Forum, la disinformazione alimentata dall’IA è considerata la minaccia globale numero uno per la coesione sociale nel prossimo biennio.

Questo dato si valuta anche in tutte le sfere di una società progredita, dalle istituzioni, al mondo accademico, al governo e anche ai privati, soprattutto influenzando gli under 30. Non si tratta solo di notizie false, ma di una vera e propria manipolazione della percezione che può isolare gli individui e alimentare l’odio. I dati dell’UNESCO evidenziano come l’uso di “contenuti sintetici” stia rendendo sempre più difficile la verifica dei fatti, richiedendo una nuova forma di alfabetizzazione digitale per non restare intrappolati in realtà fittizie.

Anatomia della disinformazione: come l’IA ci manipola

Capire come agisce l’intelligenza artificiale è il primo passo per non sentirsi sopraffatti da un flusso informativo che sembra troppo coerente per essere falso. Gli algoritmi di IA sono progettati per massimizzare il coinvolgimento, creando “bolle di filtraggio” che confermano i nostri pregiudizi e amplificano le notizie sensazionalistiche.

L’Oxford Internet Institute ha documentato come le campagne di disinformazione coordinata utilizzino bot potenziati dall’IA per simulare un consenso popolare inesistente, una pratica nota come “astroturfing”. Questo crea un senso di accerchiamento nell’utente, che si sente isolato in una realtà distorta. L’Agenzia dell’Unione Europea per la Cybersicurezza (ENISA) sottolinea che questi sistemi non “comprendono” la verità, ma si limitano a prevedere sequenze di dati che appaiono verosimili, rendendo la loro capacità di persuasione estremamente pericolosa.

Geopolitica del falso: l’IA come arma di destabilizzazione

Oltre il danno individuale, l’intelligenza artificiale è diventata uno strumento centrale nelle moderne strategie di guerra ibrida, capace di influenzare le sorti di intere nazioni senza sparare un solo colpo. Reti coordinate di bot avanzati vengono utilizzate da attori statali per interferire nei processi democratici e nelle tornate elettorali. Secondo il servizio di intelligence dell’Unione Europea (INTCEN), l’uso di deepfake audio e video per simulare dichiarazioni compromettenti di leader politici è una tattica in forte espansione per polarizzare l’opinione pubblica e minare la fiducia nelle istituzioni.

Questa manipolazione non mira solo a far credere a una bugia, ma a distruggere l’idea stessa che esista una verità condivisa. Il NATO StratCom Centre of Excellence sottolinea come queste operazioni di “information laundering” (lavaggio dell’informazione) permettano a contenuti generati artificialmente di infiltrarsi nei media tradizionali, rendendo la difesa della sovranità digitale una sfida di sicurezza nazionale.

La corsa agli armamenti tecnologici: rilevamento e filigrana digitale

Oltre il danno individuale, l’intelligenza artificiale è diventata uno strumento centrale nelle moderne strategie di guerra ibrida, capace di influenzare le sorti di intere nazioni senza sparare un solo colpo. Reti coordinate di bot avanzati vengono utilizzate da attori statali per interferire nei processi democratici e nelle tornate elettorali. Secondo il servizio di intelligence dell’Unione Europea (INTCEN), l’uso di deepfake audio e video per simulare dichiarazioni compromettenti di leader politici è una tattica in forte espansione per polarizzare l’opinione pubblica e minare la fiducia nelle istituzioni.

Questa manipolazione non mira solo a far credere a una bugia, ma a distruggere l’idea stessa che esista una verità condivisa. Il NATO StratCom Centre of Excellence sottolinea come queste operazioni di “information laundering” (lavaggio dell’informazione) permettano a contenuti generati artificialmente di infiltrarsi nei media tradizionali, rendendo la difesa della sovranità digitale una sfida di sicurezza nazionale.


Fonti

DARPA. (2025). Semantic Forensics (SemaFor): Protecting the integrity of digital media. Defense Advanced Research Projects Agency. https://www.darpa.mil/program/semantic-forensics
ENISA. (2024). AI and disinfo: Threat landscape and mitigation strategies. European Union Agency for Cybersecurity. https://www.enisa.europa.eu/topics/cyber-threats/threat-landscape 
EU INTCEN. (2024). Hybrid threats and the role of generative AI in geopolitical destabilization. EU Intelligence and Situation Centre. https://www.eeas.europa.eu/eeas/countering-hybrid-threats_en
JRC. (2024). AI, deepfakes and the future of digital trust: Technical solutions and watermarking. Joint Research Centre, European Commission. https://op.europa.eu/it/publication-detail/-/publication/14e669cb-fbae-11ee-a251-01aa75ed71a1/language-en p. 10
NATO StratCom CoE. (2024). The role of AI in state-sponsored disinformation campaigns. NATO Strategic Communications Centre of Excellence. https://www.nato.int/en/what-we-do/wider-activities/natos-approach-to-counter-information-threats 
Oxford Internet Institute. (2024). The global inventory of organized social media manipulation. University of Oxford. https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/12/2019/09/CyberTroop-Report19.pdf p. 4, p.11
UNESCO. (2024). Guidelines for the governance of digital platforms: Safeguarding freedom of expression.https://unesdoc.unesco.org/ark:/48223/pf0000387339 p. 7
World Economic Forum. (2026). The global risks report 2026: 21st edition. https://reports.weforum.org/docs/WEF_Global_Risks_Report_2026.pdf p. 17

Difendiamo l’umanità
nell’era digitale

Costruiamo percorsi condivisi e innovativi per
proteggere chi ne ha bisogno

/ CYBER NEWS

Articoli & Blog

Torna in alto
🇮🇹