¿Estamos preparados para la IA en las elecciones?
“La confianza electoral está profundamente entrelazada con las tendencias clave observadas en el año del superciclo. El entorno de la información ha reconfigurado cualquier proporcionalidad entre las vulnerabilidades “reales” en un proceso electoral y el “fraude” percibido; las herramientas de IA sirven para acelerar esta brecha”.
Therese Pearce Laanela,
Jefa de Procesos Electorales
IDEA Internacional
El uso de la inteligencia artificial (IA) generativa a nivel mundial, durante el superciclo electoral de 2024, es una realidad documentada, como lo es su uso en campañas de desinformación, injerencia extranjera y manipulación de la información.
El uso de la IA en las elecciones va más allá de sus capacidades generativas. En varios países, los Organismos Electorales (OE) han integrado la IA en algunos de sus procesos, aunque con notable moderación. Dado el papel fundamental de las elecciones en los sistemas democráticos, este enfoque cauteloso es beneficioso, ya que permite un análisis exhaustivo y una comprensión de los riesgos y daños potenciales. Dado que las elecciones son procesos continuos en lugar de eventos aislados, la implementación de la IA en cualquier etapa tiene el potencial de afectar otras etapas y todo el ciclo electoral.
Paralelamente, la tecnología de IA ha equipado a regímenes de todo el espectro, desde Estados autoritarios y actores no estatales frecuentemente afiliados a ellos, hasta democracias de alto funcionamiento, con herramientas poderosas como el reconocimiento facial, el spyware y la vigilancia dirigida y masiva. Estas tecnologías permiten a los actores malignos ejercer el autoritarismo digital, lo que les permite monitorear, anticipar y manipular el comportamiento público, a menudo junto con técnicas de censura y represión.
El panorama mundial actual –caracterizado por nuevos conflictos, el resurgimiento de conflictos congelados, la inestabilidad persistente, las crisis superpuestas, los Estados autoritarios que buscan mayor poder e influencia incluso en las democracias de alto rendimiento, particularmente en Europa y las Américas, y la expansión anual del autoritarismo en todo el mundo– ha hecho que estos temas sean relevantes para un público mucho más amplio, y extiende su importancia más allá del súper ciclo electoral de 2024. Según el Informe de Riesgos Globales 2024 del Foro Económico Mundial, la desinformación y la información errónea se clasifican como los riesgos más graves en los próximos dos años.
Esta gama convergente y diversa de amenazas tiene implicaciones complejas a nivel nacional, incluso para las democracias estables. Este entorno fomenta la adopción de este tipo de tecnologías habilitadas por la IA bajo los auspicios de la defensa y la mejora de la seguridad nacional. Sin embargo, la rápida integración de estas tecnologías –a veces llevada a cabo con la vista gorda de los derechos humanos y los principios democráticos incluso en entornos democráticos–, plantea graves riesgos para comprometer las libertades civiles y erosionar significativamente la confianza en las instituciones y los procesos democráticos.
Entre los expertos, existe un consenso sobre los importantes riesgos asociados al uso de la IA en contextos electorales, y la importancia de permanecer alerta y no subestimar el potencial de las tecnologías de IA cada vez más potentes. Sin embargo, hasta ahora el impacto aparente de la IA generativa en los ejercicios electorales observados en 2024 ha sido menor de lo previsto. En muchos casos, el uso de la IA en las campañas electorales aparentemente ha servido para fines más satíricos que de manipulación explícita, lo que sugiere, a primera vista, una aplicación menos disruptiva de lo que se esperaba inicialmente. Sin embargo, somos conscientes de que anteriormente se han utilizado técnicas disfrazadas para enmascarar la desinformación y los contenidos abusivos. En muchos casos analizados, la intención maligna es evidente, incluso en contenidos aparentemente inocuos alterados por la IA.
Los objetivos parecen ir desde obtener una ventaja electoral desacreditando a los candidatos opositores hasta perseguir estrategias más amplias de diversos actores, incluidas las agendas geopolíticas de Estados extranjeros. Estas estrategias a menudo implican sembrar divisiones sociales sobre temas delicados, socavar la confianza en los procesos e instituciones democráticas y aumentar la confusión sobre la autenticidad del contenido al que se exponen las audiencias.
A medida que nos acercamos al final del año superelectoral de 2024, es esencial recordar que las elecciones continuarán mucho más allá de este año, al igual que la influencia de la tecnología de IA en los procesos democráticos, con posibles repercusiones en el orden mundial. Si bien 2024 ha atraído la atención mundial debido a su escala y lo que está en juego, la necesidad de monitorear los desarrollos impulsados por la IA en el panorama electoral está lejos de ser temporal. Esta tecnología persistirá, evolucionará y potencialmente remodelará las elecciones futuras de maneras que aún no podemos predecir por completo.
El énfasis en los riesgos de 2024 está eclipsando la vigilancia a largo plazo, que es crucial para garantizar que las aplicaciones de IA en las elecciones mantengan la integridad democrática. Mantener un enfoque sostenido y vigilante de la IA en las elecciones no sólo es prudente, sino necesario a medida que miramos hacia futuros ciclos electorales y los impactos duraderos que esta tecnología puede tener para las sociedades democráticas de todo el mundo.
Contrarrestar el uso maligno de dichas tecnologías requiere un esfuerzo concertado para establecer compromisos globales para una gobernanza de la IA transparente y responsable, con un fuerte énfasis en la protección de los derechos humanos y la defensa de los principios democráticos.
A pesar del contexto descrito, la relación entre el entorno de información en constante evolución –y habilitado por la tecnología que rodea a los procesos democráticos–, y las correlaciones de defensa y seguridad, sigue siendo muy poco estudiada. Además, la colaboración entre expertos en los campos interseccionales de la tecnología de IA, la democracia, y la defensa y la seguridad, es mínima, en muchos casos inexistente. Esta falta de cooperación interdisciplinaria complica aún más los esfuerzos para abordar de manera efectiva las crecientes amenazas a la resiliencia democrática. Es muy importante tender un puente entre las divisiones. En la actualidad, estos grupos suelen operar en compartimentos estancos con un intercambio interdisciplinario limitado. La falta de concienciación y colaboración entre estos grupos ya ha dado lugar a esfuerzos de gobernanza fragmentados, iniciativas vagas, responsabilidades poco claras y normas éticas insuficientes.