RRI Live!

Escuche Radio Rumania Internacional en vivo

Inteligencia artificial: ¿aliado o amenaza?

La profesora Flavia Durach, especialista en el estudio de la desinformación, explica el mecanismo de funcionamiento de los ultrafalsos en el contexto de la inteligencia artificial.

Foto: pixabay.com
Foto: pixabay.com

, 15.03.2024, 19:18

Definida como «la capacidad de un sistema de interpretar correctamente los datos externos, aprender de esos datos y utilizar lo aprendido para lograr objetivos y tareas específicas a través de una adaptación flexible», la Inteligencia Artificial (IA) implica el desarrollo de algoritmos y modelos que permiten a las máquinas percibir y motivar su entorno y tomar las medidas adecuadas.

 

Estos algoritmos utilizan grandes volúmenes de datos y técnicas avanzadas como el aprendizaje automático, el aprendizaje profundo, el procesamiento del lenguaje natural y la visión por ordenador. Fundada como disciplina académica en 1956, la inteligencia artificial está cada vez más presente y sus beneficios son innegables. Estos pueden ir desde una mejor asistencia sanitaria a procesos de fabricación más eficientes, desde un transporte más seguro y limpio a fuentes de energía más baratas y sostenibles. Para las empresas, la IA puede, por ejemplo, facilitar el desarrollo de una nueva generación de productos y servicios, y mejorar la seguridad en el lugar de trabajo porque los robots pueden realizar tareas peligrosas.

Sin embargo, la inteligencia artificial viene acompañada de aspectos negativos como posibles amenazas contra la seguridad, la democracia, las empresas y los empleos. ¿Hemos llegado al punto de temer que la inteligencia artificial y las herramientas con las que altera nuestra realidad decidan nuestro futuro? Hay voces que sostienen que esto no es descartable. Un ejemplo tiene que ver con el ámbito de la política, las posibilidades de influir en el electorado, por ejemplo, a través de deep-fakes (ultrafalsos) creados mediante el uso de la inteligencia artificial.

 

La profesora Flavia Durach, especialista en el estudio de la desinformación, explica el mecanismo de funcionamiento:

«Hay algunos riesgos relacionados con los deep-fakes. En primer lugar, se trata de exacerbar el componente emocional, potenciar ciertos estados de ánimo emocionales a nivel del electorado, que en un determinado momento pueden aventajar a un determinado candidato o formación política. Como la manipulación emocional juega un papel importante en la desinformación y puede conducir a decisiones irracionales, a socavar el pensamiento crítico, a no apreciar un determinado tipo de mensaje que tiene un componente emocional fuerte, por ejemplo, el miedo o ese sentimiento de sentirnos escandalizados. En cuanto a la integridad de las elecciones, aquí sí podemos tener aquel tipo de situaciones en las que un candidato o equipo de campaña o determinados actores que tienen interés pueden crear deep-fakes para desacreditar a otros candidatos, para crear dudas en la mente de los votantes. Aquí también, lo que más está en juego son los votantes indecisos, los que a lo mejor estén sometidos a algunas presiones cruzadas de su entorno para decantar el voto hacia un lado u otro, estos son probablemente los más susceptibles. Los deep-fakes por su naturaleza tiene un gran potencial de hacerse virales, son fáciles de rastrear, suelen tener todas las características de los contenidos audiovisuales con fuerte viralidad, por lo que pueden propagarse rápidamente».

 

En su intento de contrarrestar tales prácticas, un grupo de 20 empresas del sector tecnológico, incluidos los grandes desarrolladores de programas de inteligencia artificial, han firmado recientemente un acuerdo que prevé que estos combatan la desinformación electoral este año. Entre los más importantes firmantes figuran OpenAI, Microsoft y Meta. Finalizado en la Conferencia de Seguridad de Múnich, el acuerdo incluye, además de las compañías IA, algunas de las redes sociales más populares. Meta, junto con TikTok y X (antes Twitter), deben asegurarse de que cualquier contenido dañino o falso sea eliminado de sus plataformas.

OpenAI, Microsoft y las demás empresas IA se asegurarán de identificar las imágenes, los vídeos y audios generados con la ayuda de la inteligencia artificial e informarán correctamente a los usuarios sobre ello. La medida acordada por la mayoría de las empresas es etiquetar los contenidos de IA, principalmente a través de una marca de agua.

Es un buen comienzo, según considera Flavia Durach:

«Sin embargo, hay que tener en cuenta que también tenemos la experiencia de fake news menos sofisticadas durante la pandemia del COVID-19, cuando existían estas promesas, se tomaron estas medidas de etiquetado de contenidos, pero estudios independientes de think tanks o investigadores no afiliados a estas plataformas digitales encontraron muchas limitaciones en estas medidas. En el sentido de que muchos de los contenidos que desinformaban en esos contextos conseguían escapar sin ser detectados por las políticas de moderación, por las medidas de detección. Por lo tanto, sin ser un experto técnico, tengo una dosis de escepticismo sobre la eficacia y la eficiencia de estas medidas a la luz de experiencias pasadas».

A su vez, Flavia Durach, especialista en el estudio de la desinformación, opina que «a falta de medidas legislativas, de normativas establecidas a nivel nacional, supranacional, si no basamos nuestros esfuerzos en políticas para el desarrollo de la inteligencia artificial sobre bases éticas y con minimización de riesgos, no podremos hacer nada».

En la UE ya se han dado algunos pasos importantes en esta dirección: la nueva ley sobre inteligencia artificial aprobada esta semana en el pleno del Parlamento Europeo incluye la obligación de que los desarrolladores declaren que los sonidos, imágenes y textos producidos por la IA son artificiales. Sin embargo, llevará algún tiempo, ya que la ley será plenamente aplicable 24 meses después de su entrada en vigor, con un enfoque gradual.

 

Versión en español: Antonio Madrid

Foto: pixabay.com
Retos del mañana viernes, 10 mayo 2024

La carne cultivada, ¿una solución?

La idea de producir carne en el laboratorio no es nueva, comenzó hace más de dos décadas como una misión práctica: la NASA financió entonces un...

La carne cultivada, ¿una solución?
OTAN: Desafíos a los 75 años de existencia
Retos del mañana viernes, 12 abril 2024

OTAN: Desafíos a los 75 años de existencia

El 75º aniversario encontró a la OTAN en un contexto de agitación internacional: la guerra en Ucrania, el conflicto en Oriente Medio, pero...

OTAN: Desafíos a los 75 años de existencia
(foto: Politi
Retos del mañana lunes, 08 abril 2024

Rumanía, hacia la plena adhesión a Schengen

Con todas las cuestiones relacionadas con el acervo de Schengen ya resueltas, Rumanía, junto con Bulgaria, con la que forma tándem en este...

Rumanía, hacia la plena adhesión a Schengen
atac cibernetic securitate hacker foto pixabay
Retos del mañana viernes, 08 marzo 2024

Cómo protegernos de los ciberataques

Hace tres años, una foto tomada justo encima de unos camellos en el desierto de Arabia Saudí al atardecer fue nombrada una de las mejores fotos del...

Cómo protegernos de los ciberataques
Retos del mañana viernes, 01 marzo 2024

Ucrania, tres años de guerra

La guerra en Ucrania, que Rusia estimó que duraría 30 días, entró en su tercer año el 24 de febrero. Las pérdidas humanas y materiales son...

Ucrania, tres años de guerra
Retos del mañana viernes, 16 febrero 2024

Impacto del calentamiento global por encima de 1,5 °C

La Unión Europea se ha comprometido a ser neutra en emisiones de carbono para 2050 y ha fijado un primer objetivo intermedio para 2030: reducir las...

Impacto del calentamiento global por encima de 1,5 °C
Retos del mañana viernes, 09 febrero 2024

La guerra de la información, cada vez más sofisticada

«Nos encontramos en un contexto tectónico, en el que además se avecina un año electoral. El conflicto que nos rodea nos obliga a tomar medidas de...

La guerra de la información, cada vez más sofisticada
Retos del mañana viernes, 02 febrero 2024

Arranca el ejercicio militar de la OTAN «Steadfast Defender 24»

Steadfast Defender 24 consiste en una serie de ejercicios militares individuales en los que participarán un total de 50 buques de guerra, 80 aviones...

Arranca el ejercicio militar de la OTAN «Steadfast Defender 24»

Pareja

Muzeul Național al Țăranului Român Muzeul Național al Țăranului Român
Liga Studentilor Romani din Strainatate - LSRS Liga Studentilor Romani din Strainatate - LSRS
Modernism | The Leading Romanian Art Magazine Online Modernism | The Leading Romanian Art Magazine Online
Institului European din România Institului European din România
Institutul Francez din România – Bucureşti Institutul Francez din România – Bucureşti
Muzeul Național de Artă al României Muzeul Național de Artă al României
Le petit Journal Le petit Journal
Radio Prague International Radio Prague International
Muzeul Național de Istorie a României Muzeul Național de Istorie a României
ARCUB ARCUB
Radio Canada International Radio Canada International
Muzeul Național al Satului „Dimitrie Gusti” Muzeul Național al Satului „Dimitrie Gusti”
SWI swissinfo.ch SWI swissinfo.ch
UBB Radio ONLINE UBB Radio ONLINE
Strona główna - English Section - polskieradio.pl Strona główna - English Section - polskieradio.pl
creart - Centrul de Creație Artă și Tradiție al Municipiului Bucuresti creart - Centrul de Creație Artă și Tradiție al Municipiului Bucuresti
italradio italradio
Institutul Confucius Institutul Confucius
BUCPRESS - știri din Cernăuți BUCPRESS - știri din Cernăuți

Afiliaciones

Euranet Plus Euranet Plus
AIB | the trade association for international broadcasters AIB | the trade association for international broadcasters
Digital Radio Mondiale Digital Radio Mondiale
News and current affairs from Germany and around the world News and current affairs from Germany and around the world
Comunità radiotelevisiva italofona Comunità radiotelevisiva italofona

Proveedores

RADIOCOM RADIOCOM
Zeno Media - The Everything Audio Company Zeno Media - The Everything Audio Company