Deepfakes en elecciones de Eslovaquia reafirman que IA es un peligro para la democracia

Los verificadores de datos tuvieron que enfrentarse a grabaciones de audio falsificadas, publicadas días antes de unas elecciones muy reñidas, lo que es una advertencia para otros países con votaciones inminentes.
Michal Šimečka
Michal Šimečka, líder del partido liberal Eslovaquia Progresista, quien perdió las elecciones frente al exprimer ministro Robert Fico, representante del SMER.Zuzana Gogova/Getty Images

Apenas dos días antes de las elecciones en Eslovaquia, celebradas el 30 de septiembre de 2023, se publicó en Facebook una grabación de audio. En ella se escuchaban dos voces: supuestamente, la de Michal Šimečka, quien lidera el partido liberal Eslovaquia Progresista, y la de Monika Tódová, del diario Denník N. Al parecer, discutían la forma de amañar el proceso electoral, en parte comprando votos de la minoría romaní o gitana, marginada del país.

Šimečka y Denník N denunciaron inmediatamente el audio como falso. El departamento de comprobación de información de la agencia de noticias AFP declaró que el material mostraba signos de haber sido manipulado mediante inteligencia artificial (IA). Pero la grabación se publicó durante una moratoria de 48 horas antes de la apertura de las urnas, durante la cual se supone que los medios de comunicación y los políticos deben guardar silencio. Esto significaba que, según las reglas electorales eslovacas, era difícil desacreditar la publicación. Además, al tratarse de un archivo de audio, se aprovechó de una laguna en la política de recursos manipulados de Meta, que establece que únicamente los videos falsos en los que se edita a una persona para que diga palabras que nunca expresó van en contra de sus directrices.

El contenido falso generado por IA llega hasta la política

Las elecciones fueron una reñida carrera entre dos candidatos con visiones opuestas de Eslovaquia. El domingo se anunció que el partido pro-OTAN, Eslovaquia Progresista, había perdido frente al SMER (Dirección-Socialdemocracia, traducido del eslovaco) que hizo campaña a favor de retirar el apoyo militar a su vecina Ucrania.

Antes de la votación, Věra Jourová, responsable de asuntos digitales de la Unión Europea (UE), declaró que las elecciones eslovacas serían una prueba de lo vulnerable que es el proceso electoral en Europa al “arma multimillonaria de manipulación masiva” utilizada por Moscú para inmiscuirse en ello. Ahora, tras las elecciones, países de todo el mundo estudiarán detenidamente lo ocurrido en Eslovaquia en busca de pistas sobre los retos a los que podrían enfrentarse. La cercana Polonia, que según un reciente estudio de la UE corría un riesgo especial de ser blanco de la desinformación, acude a las urnas dentro de dos semanas. El año que viene se celebrarán elecciones en Reino Unido, India, la UE y Estados Unidos. Los verificadores de datos en Eslovaquia que intentan mantener la lucha contra la desinformación en las redes sociales dicen que su experiencia demuestra que la IA ya se encuentra lo suficientemente avanzada como para alterar las elecciones, mientras que ellos carecen de las herramientas para contraatacar.

“No estamos tan preparados para ello como deberíamos”, afirma Veronika Hincová Frankovská, directora de proyectos de la organización de comprobación de hechos, Demagog.

Durante las elecciones, el equipo de Hincová Frankovská trabajó muchas horas, dividiendo su tiempo entre la comprobación de las declaraciones realizadas durante los debates televisivos y la supervisión de las plataformas de redes sociales. Demagog es socia de Meta en la comprobación de información, lo que significa que colabora con la compañía en la redacción de etiquetas para la presunta desinformación que se difunde en plataformas como Facebook.

La inteligencia artificial ha añadido una nueva y desafiante dimensión a su trabajo. Tres días antes de las elecciones, Meta notificó al equipo de Demagog que una grabación de audio de Šimečka proponiendo duplicar el precio de la cerveza si vencía estaba ganando adeptos. Šimečka calificó el video como falso. “Pero, por supuesto, la comprobación de la información no se basa solo en lo que declaran los políticos”, destacó Hincová Frankovská.

Demostrar que el audio había sido manipulado era complicado. Hincová Frankovská sabía de publicaciones generadas por IA, pero su equipo nunca tuvo que comprobar una. Rastrearon la procedencia de la grabación y descubrieron que primero se había publicado en una cuenta anónima de Instagram. Después consultaron a expertos para preguntarles si consideraban que el material podía ser falso o estaba manipulado. Por último, probaron un clasificador de voz por IA, fabricado por una empresa estadounidense llamada Eleven Labs.

Al cabo de unas horas estaban listos para confirmar que consideraban que la grabación había sido alterada. Su etiqueta, que aún puede verse en Facebook en eslovaco cuando los visitantes dan con la publicación, indica que “verificadores independientes de datos constatan que la foto o imagen se ha editado de forma que induciría a error a la gente”. Los usuarios de la red social tienen la opción de elegir si quieren ver el video de todos modos.

Tanto el audio sobre la cerveza como el de la manipulación de votos siguen visibles en Facebook, con la etiqueta de verificación de datos. “Cuando se comprueba la veracidad de un contenido, lo etiquetamos y le bajamos de rango en el feed, para que llegue a menos gente, como pasó con estos dos ejemplos”, explica Ben Walter, vocero de Meta. “Nuestras Normas Comunitarias se aplican a todos los contenidos, independientemente de que hayan sido creados por IA o por una persona, y tomaremos medidas contra los materiales que infrinjan estas políticas”.

Esta elección fue una de las primeras votaciones consecuentes que tuvieron lugar tras la introducción en agosto de la Ley de Servicios Digitales de la UE. Dicha legislación, concebida para proteger mejor los derechos humanos en internet, introdujo nuevas normas que supuestamente obligarían a las plataformas a ser más proactivas y transparentes en sus esfuerzos por moderar la desinformación.

“Eslovaquia fue un caso de prueba para ver qué funciona y dónde se necesitan algunas mejoras”, señala Richard Kuchta, analista de Reset, un grupo de investigación que se centra en el impacto de la tecnología en la democracia. “En mi opinión, [la nueva ley] presionó a las plataformas para que aumentaran las capacidades de moderación de contenidos o de comprobación de información. Sabemos que Meta contrató a más verificadores para las elecciones eslovacas, pero veremos si fue suficiente”.

Junto con las dos grabaciones de audio deepfaked, Kuchta también fue testigo de cómo el partido de extrema derecha, Republika, publicaba en las redes sociales otros dos videos con imitaciones de voz creadas mediante IA. Una se hacía pasar por Michal Šimečka, y la otra por la presidenta, Zuzana Čaputová. Estos materiales incluían avisos de que las voces eran falsas: “estas voces son ficticias y su parecido con personas reales es pura coincidencia”. Sin embargo, esa declaración no aparece hasta pasados 15 segundos de los 20 que dura el video, resalta Kutcha, en lo que consideró un intento de engañar a los oyentes.

Elecciones alteradas por contenido falso de IA

Las elecciones en Eslovaquia se siguieron muy de cerca en Polonia. “Por supuesto, la desinformación generada por IA es algo que nos asusta mucho, porque es muy complicado reaccionar rápidamente ante ella”, afirma Jakub Śliż, presidente del grupo polaco de comprobación de hechos Pravda Association. Śliż añade que también es inquietante la tendencia en Eslovaquia de empaquetar la desinformación en grabaciones de audio, en lugar de video o imágenes, porque la clonación de voz es muy difícil de identificar.

Al igual que Hincová Frankovská en Eslovaquia, Śliż también carece de herramientas que le ayuden de forma fiable a identificar lo que se ha creado o manipulado mediante IA. “Las herramientas que hay disponibles te dan una puntuación de probabilidad”, comparte, pero adolecen de un problema de “caja negra” ya que desconoce cómo deciden que una publicación sea probablemente falsa. “Si uso una herramienta que utiliza otra IA para decirme mágicamente que esto fue generado en un 87% por IA, ¿cómo se supone que le transmitiré este mensaje a mi audiencia?”, reclama.

En Polonia todavía no circula mucho contenido generado mediante inteligencia artificial, indica Śliż. “Pero la gente aprovecha el hecho de que algo pueda ser generado por IA para desacreditar fuentes reales”. Faltan dos semanas para que los votantes polacos decidan si el partido conservador en el poder, Ley y Justicia, debe permanecer en el gobierno durante un tercer mandato, un hecho sin precedentes. Este fin de semana, una multitud gigantesca se reunió en Varsovia en apoyo a la oposición, y el gobierno de la ciudad, controlado por esta, estimó que acudió un millón de personas en su momento cumbre. Pero en X, antes conocido como Twitter, los usuarios sugirieron que los videos de la marcha habían sido manipulados con IA para que la multitud pareciera mayor.

Śliż cree que este tipo de contenido es fácil de verificar, comparando diferentes fuentes. Pero si las grabaciones de audio generadas por IA empiezan a circular por Polonia en las últimas horas antes de la votación, como ocurrió en Eslovaquia, sería mucho más complicado. “Como organización de comprobación de información, no tenemos un plan concreto para afrontarlo. Así que si ocurre algo así, será lamentable”, subraya.

Artículo publicado originalmente en WIRED UK. Adaptado por Andrei Osornio.