Guía para detectar la desinformación generada por la IA y proteger el derecho a una información libre y segura.
En un ecosistema digital cada vez más saturado, las noticias falsas ya no son solo textos mal redactados, sino artefactos complejos capaces de sacudir la estabilidad emocional de las personas. La llegada de la inteligencia artificial generativa ha reducido drásticamente los costes de la creación de desinformación a gran escala. Según el Informe sobre Riesgos Globales 2026 del Foro Económico Mundial, la desinformación impulsada por la IA se considera la principal amenaza global para la cohesión social en los próximos dos años.
Este fenómeno se observa en todos los ámbitos de una sociedad avanzada, desde las instituciones hasta el mundo académico, pasando por el gobierno e incluso el sector privado, y afecta especialmente a los menores de 30 años. No se trata solo de noticias falsas, sino de una auténtica manipulación de la percepción que puede aislar a las personas y alimentar el odio. Los datos de la UNESCO ponen de manifiesto que el uso de «contenidos sintéticos» está dificultando cada vez más la verificación de los hechos, lo que exige una nueva forma de alfabetización digital para no quedar atrapados en realidades ficticias.
Anatomía de la desinformación: cómo nos manipula la IA
Entender cómo funciona la inteligencia artificial es el primer paso para no sentirse abrumado por un flujo de información que parece demasiado coherente como para ser falso. Los algoritmos de IA están diseñados para maximizar la participación, creando «burbujas de filtro» que confirman nuestros prejuicios y amplifican las noticias sensacionalistas.
El Oxford Internet Institute ha documentado cómo las campañas de desinformación coordinadas utilizan bots potenciados por IA para simular un consenso popular inexistente, una práctica conocida como «astroturfing». Esto crea una sensación de asedio en el usuario, que se siente aislado en una realidad distorsionada. La Agencia de la Unión Europea para la Ciberseguridad (ENISA) subraya que estos sistemas no «comprenden» la verdad, sino que se limitan a predecir secuencias de datos que parecen verosímiles, lo que hace que su capacidad de persuasión sea extremadamente peligrosa.
La geopolítica de lo falso: la IA como arma de desestabilización
Más allá del daño individual, la inteligencia artificial se ha convertido en una herramienta fundamental en las estrategias modernas de guerra híbrida, capaz de influir en el destino de naciones enteras sin disparar un solo tiro. Los actores estatales utilizan redes coordinadas de bots avanzados para interferir en los procesos democráticos y en las campañas electorales. Según el servicio de inteligencia de la Unión Europea (INTCEN), el uso de deepfakes de audio y vídeo para simular declaraciones comprometedoras de líderes políticos es una táctica en fuerte expansión para polarizar a la opinión pública y minar la confianza en las instituciones.
Esta manipulación no solo pretende hacer creer una mentira, sino destruir la idea misma de que exista una verdad compartida. El Centro de Excelencia StratCom de la OTAN destaca que estas operaciones de «blanqueo de información» permiten que los contenidos generados artificialmente se infiltren en los medios de comunicación tradicionales, lo que convierte la defensa de la soberanía digital en un reto de seguridad nacional.
La carrera tecnológica: detección y marca de agua digital
Oltre il danno individuale, l’intelligenza artificiale è diventata uno strumento centrale nelle moderne strategie di guerra ibrida, capace di influenzare le sorti di intere nazioni senza sparare un solo colpo. Reti coordinate di bot avanzati vengono utilizzate da attori statali per interferire nei processi democratici e nelle tornate elettorali. Secondo il servizio di intelligence dell’Unione Europea (INTCEN), l’uso di deepfake audio e video per simulare dichiarazioni compromettenti di leader politici è una tattica in forte espansione per polarizzare l’opinione pubblica e minare la fiducia nelle istituzioni.
Questa manipolazione non mira solo a far credere a una bugia, ma a distruggere l’idea stessa che esista una verità condivisa. Il NATO StratCom Centre of Excellence sottolinea come queste operazioni di “information laundering” (lavaggio dell’informazione) permettano a contenuti generati artificialmente di infiltrarsi nei media tradizionali, rendendo la difesa della sovranità digitale una sfida di sicurezza nazionale.
Fuentes
DARPA. (2025). Semantic Forensics (SemaFor): Protecting the integrity of digital media. Defense Advanced Research Projects Agency. https://www.darpa.mil/program/semantic-forensics
ENISA. (2024). AI and disinfo: Threat landscape and mitigation strategies. European Union Agency for Cybersecurity. https://www.enisa.europa.eu/topics/cyber-threats/threat-landscape
EU INTCEN. (2024). Hybrid threats and the role of generative AI in geopolitical destabilization. EU Intelligence and Situation Centre. https://www.eeas.europa.eu/eeas/countering-hybrid-threats_en
JRC. (2024). AI, deepfakes and the future of digital trust: Technical solutions and watermarking. Joint Research Centre, European Commission. https://op.europa.eu/it/publication-detail/-/publication/14e669cb-fbae-11ee-a251-01aa75ed71a1/language-en p. 10
NATO StratCom CoE. (2024). The role of AI in state-sponsored disinformation campaigns. NATO Strategic Communications Centre of Excellence. https://www.nato.int/en/what-we-do/wider-activities/natos-approach-to-counter-information-threats
Oxford Internet Institute. (2024). The global inventory of organized social media manipulation. University of Oxford. https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/12/2019/09/CyberTroop-Report19.pdf p. 4, p.11
UNESCO. (2024). Guidelines for the governance of digital platforms: Safeguarding freedom of expression.https://unesdoc.unesco.org/ark:/48223/pf0000387339 p. 7
World Economic Forum. (2026). The global risks report 2026: 21st edition. https://reports.weforum.org/docs/WEF_Global_Risks_Report_2026.pdf p. 17
