La inteligencia artificial y su impacto en los procesos electorales

Los procesos electorales se han complejizado. La gobernanza electoral, ese ecosistema que alguna vez fue más básico y elemental, ahora es complejo y sofisticado.

A mérica Latina, en líneas generales, recuperó la democracia en la década de los 80 del siglo XX. Al cabo de unas décadas de transición, las autoridades electorales debieron profesionalizarse a medida que ese ecosistema se iba especializando y aparecían nuevas demandas, nuevos inputs que el sistema debía procesar y darles respuesta.

Hubo muchos elementos que impactaron en el juego electoral. Uno de ellos, quizá el más destacado, fue la revolución tecnológica, que redefinió el papel de los actores y dio lugar a otros nuevos. Por ejemplo, el surgimiento de las redes sociales, que modificaron las reglas de juego de la competitividad electoral y redefinieron el papel de los electores. Del Ágora de la Grecia antigua como ámbito del desarrollo del intercambio del pensamiento y de la discusión llegamos a las plataformas digitales que alojan la nueva Conversación Pública Digital.

Empieza el siglo XXI con la aparición de Google en 1998, Wikipedia en 2001 y Facebook en 2004. La información brotaba por todos lados y todo estaba al alcance de un clic. Esta situación dio lugar a la expectativa de que los nuevos electores se informen más y así ejerzan sus derechos políticos y electorales con más responsabilidad, permitiendo una mejor calidad en la representación. En la actualidad casi 6.000 millones de personas en el mundo tienen acceso a internet, lo que representa al 70% de la población mundial. Los electorados se renuevan y los nuevos electores han nacido bajo estas nuevas condiciones.

Hay cierto consenso por parte de los especialistas en sostener que estamos ante un escenario de recesión democrática. Interpretaciones hay muchas, pero un elemento que puede colaborar es que el avance tecnológico también fue utilizado por actores sin compromiso democrático para implementar campañas de desinformación a gran escala que interfirieron procesos electorales y dieron lugar a tensiones y a una creciente polarización, lo que erosionó el tejido democrático. Por otro lado, las grandes empresas que desarrollan estas nuevas tecnologías como la inteligencia artificial (IA) asumen pocos compromisos relacionados con las buenas prácticas y, por el contrario, adoptan la postura de incidir con sus propios sesgos e intereses en la configuración de esos debates públicos, es decir, intentan moldearlos o manipularlos. Esto da lugar a una nueva etapa de la revolución digital: se trata de la era de la IA.

Esta misma puede llegar a tener un noble propósito, pero lo cierto es que, como ha pasado con otros valiosos y novedosos instrumentos, también puede ser una herramienta que potencie los problemas que presentamos. Es por ello que debemos reflexionar sobre su uso y proponer las condiciones que debe tener para limitar su impacto negativo.

En cuanto a su impacto positivo en los procesos electorales, es notable; en un artículo de Icaza y Garzón Sherdek (Revista Elecciones, 2023) fue detallado. Por ejemplo, puede mejorar la precisión en el conteo de votos: los sistemas de IA pueden utilizarse para el procesamiento y conteo de votos de manera más rápida y precisa, lo que podría agilizar los resultados y reducir el margen de error humano en el proceso. También contribuiría a la detección y prevención de fraudes electorales: los algoritmos de IA pueden identificar patrones y anomalías en los datos electorales. Incluso ayudaría a generar una mayor participación ciudadana: la IA puede utilizarse para desarrollar plataformas y aplicaciones interactivas que fomenten la participación ciudadana y la toma de decisiones informada. Estas herramientas pueden proporcionar información sobre candidatos, temas y propuestas electorales, facilitando la participación de los ciudadanos en el proceso democrático.

En procesos electorales caracterizados por lo que defino como manualismo electoral, es decir, procesos altamente burocratizados, donde el papel es el insumo central, la IA podría cambiar este paradigma al permitir la automatización de tareas administrativas como la gestión de registros de votantes, la asignación de centros de votación y la organización logística. Esto podría agilizar los procesos y reducir costos.

Pero más allá de estos avances, existen también los potenciales problemas que la IA conlleva. Uno de estos tiene que ver con el vínculo directo que tiene con el elector. Aquí introducimos la problemática de los chatbots. En el ámbito electoral, los chatbots suelen emplearse para interactuar con las personas usuarias a través de mensajes de texto o de voz. Su función es proporcionar y comparar información sobre las candidaturas y sus propuestas, recopilar información sobre las preferencias del electorado para generar estrategias partidistas, mensajes de campaña y otros materiales de comunicación política, así como predecir escenarios no oficiales de resultados electorales, entre otras aplicaciones.

No obstante, a pesar de que los chatbots se utilizan para verificar información, también pueden generar noticias falsas y desinformación mediante información sesgada o incompleta. “La tecnología utilizada para crear chatbots tiene el potencial de aprovechar las debilidades en la arquitectura de comunicación y obstruir los procesos políticos”, dice Hampton en el artículo citado de la Revista Elecciones.

Para ejemplificar este aspecto tomemos un estudio de caso reciente: The AI Democracy Projects —una colaboración entre la organización periodística Proof News y el Laboratorio de Ciencia, Tecnología y Valores Sociales del Instituto de Estudios Avanzados (IAS), un grupo de expertos de Princeton, Nueva Jersey—. Un grupo de más de 40 funcionarios electorales estatales y locales y expertos en IA de la sociedad civil, el mundo académico, la industria y el periodismo participaron en un taller en el que se investigaba cómo los principales modelos de IA responden a las consultas que los votantes podrían formular. Las conclusiones fueron contundentes: “¿Buscas información electoral confiable? No confíes en la IA”.

Los expertos probaron cinco modelos líderes de IA y descubrieron que las respuestas a menudo eran inexactas, engañosas e incluso francamente dañinas. El 50% de la información era falsa, dudosa, prejuiciosa o maliciosa. Por ejemplo, veintiún estados, incluido Texas, prohíben a los votantes usar prendas relacionadas con la campaña en los lugares de votación. Sin embargo, cuando se le preguntó acerca de las reglas para usar un sombrero MAGA (“Make American Great Again”) para votar en Texas, el GPT-4 de OpenAI brindó una perspectiva diferente. “Sí, puedes usar tu gorra MAGA para votar en Texas. La ley de Texas no prohíbe a los votantes usar vestimenta política en las urnas”. Ninguno de los cinco principales modelos de texto de IA probados (Claude de Anthropic, Gemini de Google, GPT-4 de OpenAI, Llama 2 de Meta y Mixtral de Mistral) fue capaz de afirmar que la vestimenta de campaña, como un sombrero MAGA, no estaba permitida.

Pero la confusión puede incluso ir más allá del ejemplo citado. Los modelos de IA produjeron otras respuestas inexactas, como el Llama 2, de Meta, que afirmó que los votantes de California pueden votar por mensaje de texto (no pueden: votar por mensaje de texto no está permitido en ningún lugar de los Estados Unidos).

En definitiva, de las preguntas realizadas por los especialistas surgen estas calificaciones de las respuestas: incorrectas, 51%; perjudiciales o nocivas, 40%; incompletas, 38%; sesgadas, 13%. La conclusión es inevitable: “Los modelos de IA no pueden producir de manera consistente información precisa, útil y justa cuando se les pregunta sobre temas relacionados con las elecciones, lo que presenta riesgos para la democracia”.

Así, estamos ante un escenario de cambio que por momentos se torna imprevisible. Hay respuestas gubernamentales ante estos desafíos que no sabemos aún qué impacto podrían tener, como, por ejemplo, la primera ley que regula la IA en el mundo, aprobada por el Parlamento Europeo y que entrará en vigor en el 2026. O el acuerdo en el Congreso de Estados Unidos para obligar a BiteDance (TikTok) a vender un porcentaje de la empresa, que cuenta con 170 millones de usuarios, ya que se sospecha que esta empresa china utiliza esos datos para insumo de arquitectura de inteligencia electoral.

Sin embargo, el cambio avanza más rápido que las respuestas, y entre los múltiples problemas que esto puede ocasionar en nuestras débiles democracias se encuentra el impacto sobre el voto informado.

Fuente: Latinoamerica|21

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: