Elecciones

El desarrollo acelerado de la IA multiplica los riesgos de inundar la democracia de desinformación

En el año con más elecciones de la historia, gobiernos y partidos políticos ya experimentan con estas herramientas para hacer que sus campañas de propaganda sean más persuasivas

El expresidente de Estados Unidos, Donald Trump.

El expresidente de Estados Unidos, Donald Trump. / EP

Carles Planas Bou

"Es importante que guardes tu voto para las elecciones de noviembre". A principios de enero, decenas de electores demócratas en New Hampshire, Estados Unidos, recibieron una llamada que les incitaba a no votar en las primarias que celebraba el estado. La voz que sonaba parecía la de Joe Biden, pero el presidente no estaba al otro lado del teléfono. En realidad era una clonación sintética realizada con inteligencia artificial (IA).

Este 2024 marcará el rumbo político de la próxima década. Más de la mitad de la población mundial vive en países que este año celebrarán elecciones, entre ellos gigantes como EEUU, India, México o la Unión Europea (UE). Los más de 80 comicios convocados son un test sin precedentes para la democracia, pero también un escenario jugoso para la desinformación.

Los últimos meses han normalizado el uso de IA generativa. Esta tecnología permite que aplicaciones como ChatGPT puedan crear de forma automatizada todo tipo de textos, pero también imágenes y audios hiperrealistas. Sin embargo, en manos de actores malintencionados, esta herramienta amenaza con impulsar nuevas formas de manipulación a gran escala. "La IA supone un salto cualitativo que revolucionará la forma en que operan los propagadores de odio", advierte Iago Moreno, sociólogo por la Universidad de Cambridge e investigador de campañas de desinformación.

"La IA supone un salto cualitativo que revolucionará la forma en que operan los propagadores de odio"

Iago Moreno

— Sociólogo por la Universidad de Cambridge e investigador de campañas de desinformación

Seducción y engaño con IA

Gobiernos y partidos de todo el mundo han empezado a experimentar con estas aplicaciones con la intención de hacer que su propaganda sea más persuasiva. Una investigación académica publicada el pasado lunes —aún por revisar— concluye que los anuncios políticos personalizados con IA son "más eficaces", algo que "debería preocupar a expertos en ética y a los responsables políticos".

Clonar la voz de Biden es una forma de engañar a los electores, pero también lo es manipular audios de los jueces que investigan a Donald Trump o desnudar artificialmente a las mujeres que testifican contra el expresidente para desacreditarlos. Eslovaquia y Polonia ya han vivido casos similares antes o durante sus elecciones.

Sin embargo, la capacidad de influencia de la IA va mucho más allá del engaño. "Muestra lo poderoso que es plasmar como real los miedos que anidan en el fondo de cada ideología", explica Moreno. Ese temor puede ser el apocalipsis climático o la islamización de Occidente, dependiendo de si el anuncio lo crea En Comú Podem o los Republicanos de EEUU. Poder dar forma a un discurso político con imágenes hiperrealistas supone un cambio que "cruza todas las líneas". "Ya no hace falta que nos vendan una imagen como real para que lo que transmite te contagie al conectar con tus ideas", añade este experto en lenguaje digital.

"La IA muestra lo poderoso que es plasmar como real los miedos que anidan en el fondo de cada ideología"

Iago Moreno

— Sociólogo por la Universidad de Cambridge e investigador de campañas de desinformación

Contener la tormenta

Los bulos sintéticos suponen un reto mayúsculo para las redes sociales. Compañías como Google, Meta u OpenAI han prohibido usar sus servicios de IA para generar anuncios políticos, pero eso no garantiza que se cumpla. Otras como X directamente han recortado sus equipos de moderación de contenido, dando lugar a más desinformación. Los expertos advierten que mucha propaganda se fabricará desde 'apps' generativas más pequeñas y que se difundirá por canales imposibles de rastrear como WhatsApp o Telegram.

Países autocráticos como Rusia, China o Irán están encontrando en la IA una vía para popularizar su cosmovisión y desacreditar la influencia de Occidente. Sembrar dudas sobre el proceso democrático es una narrativa también propugnada por partidos de extrema derecha. Incluso grupúsculos terroristas como el grupo paramilitar neonazi The Base se están interesando por esta tecnología para generar propaganda y acceder a información vetada, como podrían ser instrucciones para llevar a cabo un atentado, según ha destapado 404 Media.

Acabar con la verdad

La IA amenaza con inundar internet de contenidos sintéticos y dilapidar por el camino el mismo concepto de verdad. "Si todo puede ser falso, y si todo el mundo afirma que todo es falso o está manipulado de alguna manera, no hay realmente ningún sentido de la verdad", ha advertido Libby Lange, analista de la organización Graphika, en declaraciones a The Washington Post.

La saturación informativo en el mundo de la posverdad alienta el escepticismo generalizado de los ciudadanos. Hasta un 70% de los grandes medios de comunicación del mundo cree que la IA erosionará la confianza en las noticias, según el informe de tendencias del Reuters Institute de la Universidad de Oxford.

La atmósfera de constante sospecha es abono para la manipulación política. No solo porque las mentiras juegan en un terreno cada vez más favorable, sino porque también permite que actores deshonestos nieguen la legitimidad de informaciones ciertas cuando estas les perjudiquen. Esa práctica, apodada 'dividendo de los mentirosos' (liar's dividend, en inglés) por los académicos Robert Chesney y Danielle K. Citron, es cada vez más común. En diciembre, Trump denunció haber sido víctima de un anuncio generado con IA en el que aparecía balbuceando. Sin embargo, las imágenes usadas eran reales. Para sus seguidores, eso ya no importa.

Suscríbete para seguir leyendo