Inteligencia artificial: ¿aliado o amenaza?
La profesora Flavia Durach, especialista en el estudio de la desinformación, explica el mecanismo de funcionamiento de los ultrafalsos en el contexto de la inteligencia artificial.
Corina Cristea, 24.05.2024, 15:00
Definida como «la capacidad de un sistema de interpretar correctamente los datos externos, aprender de esos datos y utilizar lo aprendido para lograr objetivos y tareas específicas a través de una adaptación flexible», la Inteligencia Artificial (IA) implica el desarrollo de algoritmos y modelos que permiten a las máquinas percibir y motivar su entorno y tomar las medidas adecuadas.
Estos algoritmos utilizan grandes volúmenes de datos y técnicas avanzadas como el aprendizaje automático, el aprendizaje profundo, el procesamiento del lenguaje natural y la visión por ordenador. Fundada como disciplina académica en 1956, la inteligencia artificial está cada vez más presente y sus beneficios son innegables. Estos pueden ir desde una mejor asistencia sanitaria a procesos de fabricación más eficientes, desde un transporte más seguro y limpio a fuentes de energía más baratas y sostenibles. Para las empresas, la IA puede, por ejemplo, facilitar el desarrollo de una nueva generación de productos y servicios, y mejorar la seguridad en el lugar de trabajo porque los robots pueden realizar tareas peligrosas.
Sin embargo, la inteligencia artificial viene acompañada de aspectos negativos como posibles amenazas contra la seguridad, la democracia, las empresas y los empleos. ¿Hemos llegado al punto de temer que la inteligencia artificial y las herramientas con las que altera nuestra realidad decidan nuestro futuro? Hay voces que sostienen que esto no es descartable. Un ejemplo tiene que ver con el ámbito de la política, las posibilidades de influir en el electorado, por ejemplo, a través de deep-fakes (ultrafalsos) creados mediante el uso de la inteligencia artificial.
La profesora Flavia Durach, especialista en el estudio de la desinformación, explica el mecanismo de funcionamiento:
«Hay algunos riesgos relacionados con los deep-fakes. En primer lugar, se trata de exacerbar el componente emocional, potenciar ciertos estados de ánimo emocionales a nivel del electorado, que en un determinado momento pueden aventajar a un determinado candidato o formación política. Como la manipulación emocional juega un papel importante en la desinformación y puede conducir a decisiones irracionales, a socavar el pensamiento crítico, a no apreciar un determinado tipo de mensaje que tiene un componente emocional fuerte, por ejemplo, el miedo o ese sentimiento de sentirnos escandalizados. En cuanto a la integridad de las elecciones, aquí sí podemos tener aquel tipo de situaciones en las que un candidato o equipo de campaña o determinados actores que tienen interés pueden crear deep-fakes para desacreditar a otros candidatos, para crear dudas en la mente de los votantes. Aquí también, lo que más está en juego son los votantes indecisos, los que a lo mejor estén sometidos a algunas presiones cruzadas de su entorno para decantar el voto hacia un lado u otro, estos son probablemente los más susceptibles. Los deep-fakes por su naturaleza tiene un gran potencial de hacerse virales, son fáciles de rastrear, suelen tener todas las características de los contenidos audiovisuales con fuerte viralidad, por lo que pueden propagarse rápidamente».
En su intento de contrarrestar tales prácticas, un grupo de 20 empresas del sector tecnológico, incluidos los grandes desarrolladores de programas de inteligencia artificial, han firmado recientemente un acuerdo que prevé que estos combatan la desinformación electoral este año. Entre los más importantes firmantes figuran OpenAI, Microsoft y Meta. Finalizado en la Conferencia de Seguridad de Múnich, el acuerdo incluye, además de las compañías IA, algunas de las redes sociales más populares. Meta, junto con TikTok y X (antes Twitter), deben asegurarse de que cualquier contenido dañino o falso sea eliminado de sus plataformas.
OpenAI, Microsoft y las demás empresas IA se asegurarán de identificar las imágenes, los vídeos y audios generados con la ayuda de la inteligencia artificial e informarán correctamente a los usuarios sobre ello. La medida acordada por la mayoría de las empresas es etiquetar los contenidos de IA, principalmente a través de una marca de agua.
Es un buen comienzo, según considera Flavia Durach:
«Sin embargo, hay que tener en cuenta que también tenemos la experiencia de fake news menos sofisticadas durante la pandemia del COVID-19, cuando existían estas promesas, se tomaron estas medidas de etiquetado de contenidos, pero estudios independientes de think tanks o investigadores no afiliados a estas plataformas digitales encontraron muchas limitaciones en estas medidas. En el sentido de que muchos de los contenidos que desinformaban en esos contextos conseguían escapar sin ser detectados por las políticas de moderación, por las medidas de detección. Por lo tanto, sin ser un experto técnico, tengo una dosis de escepticismo sobre la eficacia y la eficiencia de estas medidas a la luz de experiencias pasadas».
A su vez, Flavia Durach, especialista en el estudio de la desinformación, opina que «a falta de medidas legislativas, de normativas establecidas a nivel nacional, supranacional, si no basamos nuestros esfuerzos en políticas para el desarrollo de la inteligencia artificial sobre bases éticas y con minimización de riesgos, no podremos hacer nada».
En la UE ya se han dado algunos pasos importantes en esta dirección: la nueva ley sobre inteligencia artificial aprobada esta semana en el pleno del Parlamento Europeo incluye la obligación de que los desarrolladores declaren que los sonidos, imágenes y textos producidos por la IA son artificiales. Sin embargo, llevará algún tiempo, ya que la ley será plenamente aplicable 24 meses después de su entrada en vigor, con un enfoque gradual.
Versión en español: Antonio Madrid