Desinformación en la era de la IA
Con el desarrollo de la inteligencia artificial, también ha aumentado la desinformación, que ha adquirido nuevas dimensiones: hablamos ahora de un fenómeno global, a menudo financiado y coordinado, que tiene el potencial de influir elecciones, polarizar sociedades o tensionar las relaciones internacionales.
Corina Cristea, 05.12.2025, 13:00
La información circula a gran velocidad, cualquiera puede transmitir un mensaje que llega de forma instantánea a muchísimas personas, las redes sociales difunden y repiten ideas a un ritmo difícil de imaginar hasta hace poco y, con ello, ha crecido también la desinformación. Una desinformación que ha adquirido nuevos matices: hoy hablamos de un fenómeno global, la mayoría de las veces financiado y coordinado, con capacidad para influir en elecciones, polarizar sociedades o tensionar relaciones internacionales. Quienes lo estudian lo describen como una guerra por la mente y la percepción, una guerra invisible.
La profesora universitaria Alina Bârgăoanu, miembro del Consejo Consultivo del Observatorio Europeo para los Medios Digitales y experta en la lucha contra la desinformación, explica:
“Lo primero que destacaría es que las herramientas utilizadas para librar esta guerra informativa son cada vez más diversas: desinformación, propaganda, campañas hostiles de influencia, ciberataques, guerra algorítmica, recopilación de datos con fines de microsegmentación e incluso de hiperpersonalización. No hablamos solo de desinformación, sino de un arsenal mucho más complejo. En segundo lugar, en las conversaciones se la ha denominado ‘guerra invisible’, y esta descripción es solo parcialmente cierta. Es una forma de confrontación insidiosa, con ese carácter invisible, pero al mismo tiempo muy visible. Yo misma he empezado a usar el término para referirme a las narrativas hostiles a Occidente, que se han vuelto casi ambientales. Están y no están, están en todas partes. En cuanto empieza una conversación, es imposible que alguien del círculo de amigos o de colegas no muestre que ha sido tocado por esas narrativas. Y, sin embargo, no se puede señalar exactamente dónde las vimos o dónde las oímos. Es, por tanto, una guerra visible e invisible a la vez. Creo que los principales objetivos de las acciones de guerra política e informativa son hoy la Unión Europea y la OTAN, con un foco muy preciso, según mis observaciones, en la UE y, en particular, en algunos de sus Estados miembros. Es una guerra invisible y, a la vez, muy visible, difícil de sacar a la luz. Cuando uno empieza a estudiarla, impresiona la sofisticación de las técnicas, lo bien entrenados que están los algoritmos y el grado en que se está utilizando la inteligencia artificial.”
Si en el pasado la manipulación de masas exigía grandes equipos, tiempo y recursos, la dinámica de la guerra informativa ha cambiado radicalmente con la inteligencia artificial, gracias a la cual una sola persona puede generar miles de mensajes persuasivos en pocas horas. Con la llegada de los grandes modelos de lenguaje (Large Language Models, LLM), el mundo ha vuelto a cambiar.
Alina Bârgăoanu vuelve con detalles:
“Todos los problemas estructurales pueden amplificarse, acelerarse al máximo con estas nuevas tecnologías de inteligencia artificial. En primer lugar, la IA permite generar contenido mucho más rápido, con mayor flexibilidad y capacidad de adaptación a las audiencias locales. Las historias, las conspiraciones ya no tienen que ser creadas por personas, sino que pueden generarse mediante estos métodos. Y no me refiero solo a texto: también audio, vídeo y, sobre todo, a la combinación de los tres. El segundo elemento, que me parece aún más llamativo, es lo que algunos artículos han empezado a denominar la ‘contaminación de los grandes modelos de lenguaje’. El término en inglés es Large Language Models Grooming. ¿Qué significa? Se inunda el espacio digital con ideas engañosas, hechos falsos, rumores y opiniones muy inflamadas, no para atraer la atención del usuario, sino para infectar esos modelos de lenguaje, para contaminarlos, de modo que, cuando preguntemos a ChatGPT, por ejemplo, cuáles son las causas de la invasión de Ucrania por parte de Rusia, el chatbot ofrezca una respuesta condicionada por esas narrativas inyectadas. Antes, al buscar en Google, podíamos toparnos con enlaces que reprodujeran la retórica oficial del Kremlin, pero teníamos la posibilidad de elegir: consultábamos un enlace, luego otro. Ahora la respuesta que ofrece ChatGPT fluye directamente y la posibilidad de comprobarla es mucho menor.”
Un estudio del Instituto para el Diálogo Estratégico, basado en un ejercicio de prompting con preguntas sobre Ucrania realizado con los principales modelos de lenguaje – ChatGPT, Groq, Gemini y DeepSeek- mostró que, en los cuatro casos, el 18 % de las respuestas coincidía con la retórica oficial de Rusia, respuestas que esos modelos habían asimilado, ejemplifica la experta en desinformación Alina Bârgăoanu.
Versión en español: Valeriu Radulian