Menu Close

Inteligencia artificial en procesos electorales: veneno y antídoto de la desinformación

En México usamos con frecuencia el dicho “a río revuelto, ganancia de pescadores”. Y los procesos electorales, pandemias o tragedias naturales traen aguas turbias y son terreno fértil para la desinformación.

A unos días de definir al candidato del partido oficialista para la jefatura de gobierno de la Ciudad de México, los medios de comunicación divulgaron un audio del actual alcalde capitalino, Martí Batres, en el que supuestamente conspiraba para socavar al candidato que va por encima en las encuestas, Omar García Harfuch. “Está producido con inteligencia artificial. No es real”, fue la defensa del funcionario en rueda de prensa, acompañado de Eduardo Clark, director de gobierno digital, quien explicó que para fabricar este material bastó un software de 200 pesos y 15 minutos.

Otros aspirantes de diferentes partidos también han sido víctimas de estas clonaciones. Con la efervescencia electoral en México, la gran paradoja de estas tecnologías vuelve a saltar al debate público. Si bien la IA permite la eficiencia y el ahorro de tiempos y costos en distintas actividades (incluyendo el periodismo), también tiene el potencial de producir contenidos de desinformación en grandes volúmenes.

Y así ha sido usada en varios países. En Eslovaquia, un audio falso en el que uno de los candidatos admitía una supuesta compra de votos circuló a falta de 48 horas para que empezara la votación. También en Colombia se divulgaron audios presuntamente generados con IA en Instagram y X (antes Twitter). En Nigeria, se distribuyó propaganda “incendiaria” a través de TikTok y, en el reciente proceso argentino, tuvo eco una declaración apócrifa del futbolista Lionel Messi asegurando que votaría por Javier Milei.

A este tipo de material se le conoce como deepfakes, y se generan a partir de una grabación real de audio o vídeo por medio de aplicaciones como Faceswap, Software VoCo, Deep Art Effects, ReFace y DeepFakes Web. Antes se requerían 20 minutos de muestra para crear una cápsula de 30 segundos y ahora basta con un minuto para generar estos contenidos ficticios.

El huracán Otis, que devastó la costa del estado de Guerrero en México, también generó una ola de desinformación, aunque por vías tradicionales (vídeos o imágenes sacados de contexto y documentos apócrifos). Si, aún así, esas noticias falsas se esparcieron como reguero de pólvora, ¿se imagina lo que habría pasado si se hubiera usado inteligencia artificial?

Aunque utilizar lenguaje bélico siempre resulta incómodo, la idea de una “guerra informativa”, en la que la IA juega un papel de arma de desinformación masiva, ilustra bastante bien lo que está sucediendo.

Desinformación masiva y acelerada

La desinformación se divide en dos grandes troncos:

  • Misinformation. Información falsa, pero no creada con la intención de causar daño.

  • Malinformation. Información falsa diseñada para infligir daño a una persona, grupo social, organización o país.

Ambos son dañinos, independientemente de su intencionalidad, pero la mayoría de los contenidos falsos que se generan con IA corresponden a la segunda categoría.

Durante el panel denominado “Ética Periodística: desinformación, inteligencia artificial e hiperconectividad”, organizado por la Maestría en Periodismo Digital de la Universidad de Guadalajara, Karen de la Hoz, propietaria de producto de La Silla Vacía, consideró que estamos ante “un nuevo capítulo en la historia de la desinformación, que marcará un antes y un después. Y lo peor es que todo viene pasando muy rápido”.

Estos contenidos de desinformación se propagan de manera vertiginosa, lo que complica desmentirlos en tiempo real. Y a esto se suma el sesgo de confirmación. Según este, las personas están más dispuestas a creer lo que fortalece sus convicciones previas. En cambio, raramente consumen los medios donde se verifica y se objetan las mentiras ya divulgadas.

Desinformación bajo demanda

Si bien la IA facilita la personalización y un modelo de consumo individualizado, José Luis Manfredi y María José Ufarte advierten que este modelo limita la libertad de elección, ya que únicamente “emite aquello que el lector tiene interés por conocer, sin la responsabilidad social de ofrecer una visión más amplia de la actualidad”.

Los investigadores denuncian el uso tendencioso de la inteligencia artificial por parte de productores y distribuidores oligopólicos de contenidos. A partir del gusto del lector y de un extenso catálogo, estos utilizan la IA para modelar, con ayuda de las redes sociales, una experiencia previamente trazada. “El dato que alimenta la IA tiene una naturaleza política, es decir, responde a un curso preexistente, que predice los campos, las búsquedas o las conexiones”, señalan Manfredi y Ufarte.

Esto no es cosa menor, pues además de los datos, los algoritmos también son clave para el funcionamiento de la IA. Por ejemplo, en el caso de ChatGPT, “al no contrastar los datos con fuentes externas en tiempo real, el algoritmo puede desinformar al usuario”, de acuerdo con el manual de IA para periodistas de Prodigioso Volcán. El mismo manual señala que los algoritmos son difíciles de auditar y se han convertido en auténticas “cajas negras”.

Los algoritmos finalmente también son arbitrarios. Imponen a las personas un patrón de consumo de noticias no exento de sesgos ideológicos o tendencias políticas. Y también existe un factor económico, pues los bulos monetizan por su simple poder viral, como el caso de las noticias falsas sobre Hillary Clinton en 2016. Se trata del caso de Cambridge Analytica, con Veles (Macedonia) como epicentro de las noticias falsas.

Además, los medios tradicionales sufren un proceso de desprestigio que ha diluido su poder e influencia. Las personas desconfían de ellos y se están alejando por sus enfoques pesimistas y tediosos formatos.

Autores como Fletcher y Nielsen ya advertían que el descrédito de los medios de comunicación es tal que los hace competir “en igualdad de circunstancias con la falsedad y la ignorancia”.

No es casual que quienes crean noticias falsas –generadas de manera tradicional o con IA– acompañen los bulos con estruendosas frases como “lo que la prensa calla” o “lo que nunca verás en los noticiarios”. Ese alejamiento de los consumidores, combinado con la desinformación exponencial a través de la IA, genera una combinación explosiva.

Veneno y antídoto

La IA también ofrece soluciones contra la desinformación basadas en el mismo modelo de redes neuronales profundas pero con tecnología inversa, que permite detectar qué tipo de contenido nos llega.

Los medios de comunicación pueden utilizar estas herramientas para verificar la autenticidad, aunque algunas tienen costo. TensorFlow, PyTorch, Deepware, Illuminarty, Hive, Ai-SPY o Adobe Audition ofrecen un alto grado de certeza en la evaluación de los materiales (más del 90 %) al encontrar inconsistencias como parpadeos u ondas de audio anormales.

El portal Newtral ha creado sus propias soluciones de verificación de datos, denominadas ClaimDetection y ClaimHunter, que permiten detectar posibles declaraciones falsas.

No obstante, estas herramientas no están al alcance de todas las personas y, por más esfuerzos de verificación que realicen los periodistas, es necesario involucrar a la población en procesos de alfabetización mediática.

Juan Manuel Lucero, de Google News Lab Lead Latinoamérica, incidió en el reto de saber identificar los contenidos generados de manera sintética durante el Seminario de Periodismo de Investigación organizado por del Sistema de Universidad Virtual de la Universidad de Guadalajara.

“La alfabetización mediática de futuras generaciones toma un cariz importantísimo para saber leer críticamente y detectar indicios de falta de credibilidad en momentos críticos como pandemias o elecciones, que son lapsos en los que la desinformación se multiplica”, señaló Lucero.

En el mismo sentido, se pronunció el recientemente fallecido Mario Tascón, comisario de la exposición “Fake News. La fábrica de mentiras” de Fundación Telefónica. La alfabetización mediática otorga elementos a las personas para entender aspectos técnicos, como los bots, los algoritmos, las interacciones y por supuesto, la IA.

El combate contra la desinformación no es asunto solo de periodistas o de universidades. Resulta ineludible la participación de sectores públicos y privados, sin que ello se convierta en una tentación para implantar leyes que se vayan al otro lado del péndulo y atenten contra la libertad de expresión.

Mientras tanto, cada consumidor puede aplicar un sabio consejo de Mario Tascón:

“Cuanto más impactante nos parezca una historia, apliquemos el mayor de los escepticismos”.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now