img

Desinformación, redes sociales y elecciones

2024 marca un hito histórico en materia de elecciones. Es el año en que más países organizan elecciones; cerca de cuatro billones de personas podrán acudir a las urnas. Estos procesos electorales tendrán lugar en el marco de un debilitamiento de los sistemas democráticos, un aumento de la polarización política y la fragmentación social y un notable deterioro de los niveles de confianza en las instituciones.

 

La desinformación durante el proceso electoral puede enrarecer aún más el clima social, afectar la integridad del proceso a través de la manipulación de los votantes, fomentar una mayor polarización, acrecentar la desconfianza, y deslegitimar el resultado de las elecciones complicando incluso la gobernabilidad y la paz social. Esto ha generado la creciente preocupación de las autoridades electorales alrededor del mundo están especialmente preocupadas.

 

Los desórdenes informativos no son un fenómeno nuevo en la política y asumen múltiples formatos (campaña sucia, propaganda engañosa, teorías conspirativas, difusión de mentiras). Estos desórdenes pueden ser producto de un error involuntario o el resultado de una decisión orientada a confundir, instalar una falsedad, manipular a la población. Desde el punto de vista jurídico, la distinción reviste importancia al momento de determinar la responsabilidad. Desde el punto de vista político, ambas hipótesis pueden ser igual de dañinas. En la actualidad, el potencial de daño de la desinformación se ha visto agravado por dos factores: las redes sociales y las herramientas de inteligencia artificial generativa.

 

El uso de redes sociales potencia el alcance y la velocidad de circulación y por ende la potencial repercusión de la desinformación. La capacidad de viralización del mensaje, la facilidad para compartirlo y el alcance global de las redes sociales implican un cambio profundo en las reglas del juego. Por otro lado, las redes sociales favorecen la formación de cámaras de eco que incentivan la fragmentación y aumentan la polarización y el discurso agresivo.

 

Las herramientas de inteligencia artificial generativa, como ChatGPT, Copilot, Gemini, Claude -entre otras- han potenciado el problema especialmente porque permiten elaborar mensajes más “creíbles” y sobre todo porque facilitan la creación de imágenes, videos y mensajes de voz que impostan de manera muy efectiva a personas en situaciones inexistentes, son los llamados “deepfakes”.

 

Los remedios pensados para contrarrestar la desinformación cuando circulaba a través de los medios tradicionales no son efectivos en la era de las redes y la inteligencia artificial. La publicación de desmentidas y el derecho a réplica ya no son eficaces. Cuando la desinformación circula en redes la corrección llega tarde y difícilmente se viralice de la misma forma y alcance al mismo público. Aunque llegara a idéntica audiencia, nada garantiza que el mensaje con la corrección/aclaración se reproduzca y comparta de la misma manera.

 

La desinformación puede afectar el bien común, la eficacia de las políticas públicas, la capacidad de acción colectiva de la sociedad e incluso generar violencia. Si bien todo eso es cierto, también lo es que ni los gobiernos, ni los órganos electorales, ni las plataformas tecnológicas tienen la función de ser árbitros de la verdad. Otorgarles ese poder puede ser un boomerang para los principios que se busca proteger.

 

Los desórdenes informativos complican la distinción entre información de calidad e información falsa, errónea y tergiversada. En esa calificación reside el mayor problema que enfrentan las democracias cuando tratan de garantizar la calidad de la información. ¿Quién determina la verdad o falsedad de la información? ¿Qué verdad? ¿Qué criterios se aplican? ¿Cómo evitar que en el afán de poner freno a la desinformación se termine afectando las libertades de expresión y de prensa y al derecho de acceso a la información? ¿Qué remedios se prevén en el caso de una decisión equivocada?

 

El derecho a la información es central para la democracia, para la participación y para la gobernanza. Y uno de los procesos democráticos más afectados por la desinformación son las elecciones. La desinformación puede confundir a los electores, generar una falsa imagen de los candidatos y distorsionar sus propuestas, puede utilizarse para complicar la participación el día de la elección y puede generar dudas sobre la legitimidad del proceso y los resultados. En suma, la desinformación pone en jaque la integridad de las elecciones. Eso explica la preocupación y el debate actual en el mundo.

 

Por el momento hay tres tipos de respuesta al problema de la desinformación: a) La auto-regulación, b) la regulación estatal, y c) la alfabetización digital.

 

La auto-regulación de las redes sociales se vincula con lo que se conoce como “moderación de contenido”. ¿Podemos delegar en estas poderosas plataformas la decisión sobre lo que podemos decir, sobre la forma en que lo decimos, sobre lo que podemos leer? En cuanto a las corporaciones que diseñan herramientas de generación de contenidos a través de inteligencia artificial generativa, la auto-regulación apunta a la “ética en el diseño”, que incluye la eliminación de sesgos, la transparencia en cuanto al origen del producto y el establecimiento de mecanismos de auditoría. Resulta problemático poner en manos de privados semejante poder. Otra discusión, es si realmente pueden ejercer razonablemente ese poder y cómo lo harán especialmente porque estos estándares sugeridos colisionan con el modelo de negocios de la “economía de la atención”.

 

Las plataformas digitales han avanzado en la fijación de algunos estándares básicos para la moderación de contenido y el diseño de herramientas de inteligencia artificial. En febrero de este año en la Conferencia de Seguridad de Munich, Meta, OpenAI, Google, Micorsoft y otras plataformas firmaron un compromiso para combatir el uso engañoso de la inteligencia artificial en las elecciones 2024. Entre los compromisos asumidos figuran: el desarrollo de tecnología para detectar la información maliciosa y en especial los deepfakes; la incorporación de información de contexto a los posteos, indicando si han sido originados con herramientas de inteligencia artificial (por ejemplo, la inclusión de “marcas de agua” digitales); la colaboración con los gobiernos y la sociedad civil para la alfabetización digital de la ciudadanía y la formación de una cultura cívica digital (chequeo de fuentes, responsabilidad al compartir y circular información, entre otros recaudos).

 

En algunos países, las autoridades electorales han avanzado en la elaboración de normas para frenar la desinformación, especialmente en los procesos electorales.  En muchos casos, se trata de principios y estándares que no revisten fuerza de ley, pero representan un primer paso hacia la regulación. El campo de competencia es problemático. En primer lugar, los límites surgen de la protección internacional y constitucional de derechos fundamentales (libertad de expresión, de prensa y de información) y, en segundo lugar, porque la jurisdicción de estos órganos está atada al territorio nacional y las plataformas son un poder global, lo cual complica la posibilidad de aplicar efectivamente las decisiones. Por otra parte, la acción de las autoridades electorales puede poner en tela de juicio su imparcialidad en el proceso al incidir en la difusión de contenidos. Desde el punto de vista práctico, además, la velocidad de circulación de la desinformación contrasta con los tiempos procesales de la respuesta por parte de la autoridad.

 

La Unión Europea está a la avanzada en la regulación de la inteligencia artificial con la aprobación en abril de 2024 de la Ley de Inteligencia Artificial. Además, el Consejo de Europa acaba de aprobar en mayo el primer tratado internacional sobre inteligencia artificial: el Convenio Marco sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho. Reflejando la preocupación por la desinformación y el riesgo que representa para la integridad de las elecciones al parlamento europeo, la Comisión Europea elaboró en cooperación con IDEA International un Código de Conducta para la Elección 2024 que, aunque no tiene valor de ley, contiene una serie de compromisos y estándares para prevenir y enfrentar el problema de la desinformación.

 

La generación de cultura cívica digital debería ser una prioridad en la actualidad y no sólo con relación a los procesos electorales. Los ciudadanos deben estar alertas y preparados para defender sus derechos frente a la utilización de herramientas de inteligencia artificial que pueden afectar sus derechos (privacidad, no discriminación, igualdad ante la ley, acceso a la información, protección de datos personales y sensibles, garantía de apelación frente a decisiones que los afecten, etc.).

 

La alfabetización digital como remedio a la desinformación fomenta una actitud crítica de los ciudadanos frente a un proceso informativo en que los intermediarios (periodismo tradicional) han perdido poder y en el que prevalece la comunicación directa en la que ya no pesa la “autoridad” de la fuente. Sería ideal que la gente tomara conciencia y entendiera el poder de las redes y asumiera una posición crítica y reflexiva frente a la información que recibe, generando lo que podríamos llamar “higiene informativa digital”. Por ejemplo, antes de compartir una información chequear la fuente. Si la información le genera dudas, controlar si hay otros medios dando la misma información, recurrir a los sitios de “fact-checking”. Con esto se podría moderar la viralización de la desinformación. Las plataformas digitales han tratado de incentivar esta conducta. Por ejemplo, haciendo que el “like” o “compartir” no sean inmediatos, sino que haya un panel de diálogo para proceder. En algún momento, Twitter incluía una sugerencia cuando alguien quería compartir una nota periodística (“No sería mejor que leyera el artículo antes de compartirlo”). Suecia incluye la educación cívica en su programa global para enfrentar la desinformación y la influencia extranjera y publicó un Manual con recomendaciones y consejos útiles y sencillos para que los ciudadanos no sean engañados, ni se conviertan en agentes de la circulación de la desinformación.

 

Las redes sociales y sobre todo la inteligencia artificial generativa están aquí para quedarse. Cambios tecnológicos de esta magnitud nos plantean nuevos dilemas y desafíos. Es necesario dar respuesta y prevenir los riesgos que estas nuevas herramientas representan desde el punto de vista social, político, cultural y económico. Enfrentamos y enfrentaremos múltiples conflictos de derechos y de intereses. Se impone una reflexión atenta y equilibrada. La tentación del control podría llevarnos por la peligrosa senda de enajenar nuestra propia autonomía personal y ciudadana. La pasividad conduce al mismo camino.


img

Delia Ferreira Rubio

Delia Ferreira Rubio es Doctora en Derecho por la Universidad Complutense de Madrid y Consultora en temas de Derecho Electoral, Financiamiento de la Política y Anti-corrupción. Fue presidente de Transparencia Internacional entre 2017 y 2023.

X: @deliaferreira


Articulos relacionados

img
img

Frente Amplio

Al igual que lo hizo con Morena y aliados, la Comisión de Quejas y Denuncias del INE ha dado luz verde al adelantado proceso de selección del candidato presidencial del Frente Amplio, integrado por P...

img

Ni expropiación, ni robo

No deja de sorprenderme la facilidad con la que opinadores que uno supone están bien informados, o al menos tienen manera de informarse, publican o difunden textos que en realidad son fake news que co...

img

¿Para cuándo los registros?

La creación de nuevos partidos políticos es un tema que siempre causa polémica porque se cuestiona su utilidad en un sistema democrático por el desencanto en su desempeño; por ello, se delibera si deb...

brand

Voz y Voto es una publicación mensual especializada en política y elecciones, desde su primer número en 1993 es una revista única en su género, en México y América Latina.

Suscríbete

Contacto

Providencia 314-A, Col. Del Valle Norte, Alcaldía Benito Juárez, CP 03103, CDMX.
contacto@vozyvoto.com.mx
suscripcionesvyv@vozyvoto.com.mx
(+55) 5524-5588