Elecciones 2024 en la era de los “deepfakes”

Hay un vacío legal en el uso de la IA con posibles impactos negativos para salvaguardar la integridad del proceso electoral, particularmente entre quienes usan intensivamente la red y que pueden cambiar el rumbo de la elección.
29 Febrero, 2024
IA y elecciones
IA y elecciones

Este viernes 1 arrancan las campañas electorales en nuestro país para elegir el cargo a Presidente de la República, nueve gubernaturas y 20 mil 708 cargos a nivel federal y local en las 32 entidades con un total de 98.9 millones de personas en la lista nominal que podrán emitir su voto el próximo 2 de junio en la jornada electoral más grande de la historia de México.

Según la Fundación Internacional de Sistemas Electorales (IFES, por sus siglas en inglés) el 2024 es un super año electoral ya que, por primera vez, cerca de 100 países de todo el mundo celebrarán comicios. De ellos, 50 serán presidenciales. En América Latina se renovarán presidencias en 6 países (México, Venezuela, El Salvador, Panamá, República Dominicana y Uruguay), y la cereza en el pastel son las elecciones presidenciales en Estados Unidos en noviembre próximo.

El reto es enorme y más aún si añadimos el componente del uso de la Inteligencia Artificial (IA) como herramienta de publicidad digital y que impactará en las nuevas formas de comunicación en línea para atraer el voto del electorado a través de estrategias cada vez más sofisticadas. 

Tenemos que partir que desde tiempos históricos la manipulación de la información ha estado presente en la comunicación humana. Si en las elecciones tradicionales hacían propaganda política para influir en el electorado a través de anuncios, folletos, pancartas, mítines, mensajes en radio y televisión y mediante el uso masivo de Internet y redes sociales, ahora esta hiperconectividad digital plantea el reto del uso de la IA como herramienta de persuasión. 

En 2018, unos 87 millones de usuarios de Facebook descubrieron que se habían convertido en un producto, sin su conocimiento o permiso, cuando sus hábitos de navegación, compras, opiniones políticas y redes de amigos se analizaron y se vendieron con fines de lucro para campañas electorales en el caso conocido como Cambridge Analytica. 

“Christopher Wylie, ex empleado de Cambridge Analytica, reveló al New York Times y a The Guardian cómo es que la consultora británica utilizaba los datos de perfiles en la red social para generar anuncios personalizados con fines políticos: ‘Explotamos Facebook para acceder a millones de perfiles de usuarios. Y construimos modelos para explotar lo que sabíamos de ellos y apuntar a sus demonios internos. Esa era la base sobre la cual la compañía se fundó”, escribió en un artículo, Alejandro Morales, un especialista en derecho digital y nuevas tecnologías.

Este caso es un ejemplo de cómo se vulnera el principio de finalidad que rige el tratamiento de los datos personales. Si bien Cambridge Analytica recababa el consentimiento para el tratamiento de datos personales para ciertos fines, fue desviada deliberadamente con otros propósitos. El principio de finalidad tiene por objetivo establecer claramente cuáles son los fines para los que van a ser utilizados los datos, pues esta información es esencial para que el titular pueda ejercer control sobre el uso de su información. En este sentido, renunciamos a aspectos de nuestra privacidad cada vez que compramos algo en la red, o usamos un servicio wifi gratuito, es decir, renunciamos a cierto grado de privacidad a cambio de algo de valor.

Sabemos que la IA analiza millones de datos en un tiempo muy reducido, la innovación en campañas electorales podría usar estos datos para segmentar y personalizar las posiciones políticas, identificando tendencias y patrones de los votantes. Esa personalización del mensaje puede optimizar las estrategias de campaña dividida en regiones, temas de interés, opiniones políticas y otros factores, lo que permitiría una mejor segmentación de las audiencias, pero también permite el riesgo del uso de datos para manipular e influir en el comportamiento del votante. Investigadores como Bradshaw y Howard (2017) han documentado la proliferación de "granjas de trolls" y operaciones computarizadas de manipulación ideológica a escala industrial desde 2016, especialmente en coyunturas electorales. 

El ”Deepfake” o ultrafalso es un acrónimo del inglés formado por las palabras fake, falsificación y “deep learning” de aprendizaje profundo, que ha aumentado su influencia en los últimos años como una técnica de IA que permite editar imágenes, audios y vídeos hiperrealistas, utilizando para ello algoritmos de aprendizaje con imágenes y videos ya existentes. El resultado final es un vídeo muy real pero falso que se ha convertido en los últimos años en una poderosa herramienta para la manipulación y desinformación a gran escala.

La circulación de audios deepfake que imitan el tono de voz hasta suplantar personajes públicos, llegó a México el año pasado con el audio atribuido al entonces aspirante presidencial de Movimiento Ciudadano, Samuel García Sepúlveda, en el que se escucha una voz de hombre con acento norteño insultando y amenazando a una mujer. El ahora candidato indicó que ese audio era un deepfake; la precandidata morenista a la presidencia, Claudia Sheimbaum también ha sido víctima de este tipo de tecnologías, todas desmentidas en sus cuentas personales. Sin embargo, las tecnologías que tenemos no son suficientes por sí mismas para detectar con total certeza una voz clonada. 

A nadie sorprenderá que mañana comiencen a difundir campañas negras y filtración de información denostando a una u otra campaña electoral, eso es parte de la batalla por el triunfo en muchos procesos electorales no sólo en México sino en el mundo. Lo que preocupa es que a través de los deepfakes, la desinformación y la personalización de los mensajes a un electorado “objetivo”, haya un aumento en los espacios de desconfianza en donde no sabemos bien a bien qué es lo real y qué es lo falso. Esto puede confundir al votante en sus percepciones frente a las candidatas y candidatos e impactar en las urnas y en el proceso democrático del país. 

Además de los riesgos en la información distorsionada, los sesgos en los algoritmos pueden amplificar estereotipos desde los datos de entrenamiento. En este sentido, el algoritmo podría ignorar las preferencias de grupos subrepresentados o malinterpretar sus intereses, pero también es costosa por lo que el riesgo de tener campañas con desigualdades en la accesibilidad a estas tecnologías será evidente, sobre todo, en zonas periféricas y rurales. 

En lo que tiene que ver con la regulación normativa electoral en comunicación digital, desafortunadamente la Ley General de Instituciones y Procedimientos Electorales (LEGIPE), no contiene una regulación seria ni en Internet ni en redes sociales, por lo que el uso de la IA se encuentra en un vacío legal que podría tener impactos negativos si el uso no se realiza con la transparencia y la información debida para salvaguardar la integridad del proceso electoral. Sabemos que los jóvenes entre 18 y 24 años de edad (quienes votarán por primera vez), pueden cambiar el rumbo de la elección. Según la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH), en el país existen 93 millones de internautas, siendo la franja de edad de los 18 a los 34 años, la que más se conecta a la red y la que determinará el resultado de la elección.

En conclusión, 2024 es un año de definición para muchos países, no sólo para el desarrollo y la consolidación de la IA en el mundo, sino por la decisión electoral de los votantes y el rumbo que definirán, por lo menos en un plazo de cuatro años. La IA está transformando la forma en que nos comunicamos hoy en día en prácticamente todos los temas sociales. El uso de IA en las campañas electorales redefinirá las percepciones de votantes y representantes sobre todo en la personalización del discurso a través de chatbots, avatars e imágenes y videos con experiencias inmersivas. Sin duda, los candidatos y partidos políticos usarán estas nuevas herramientas para comunicarse con su electorado y, estos a su vez, podrán expresar sus necesidades e inquietudes. 

A falta de una regulación expresa sobre cómo debemos integrar la IA en los procesos electorales, es fundamental estar alerta como ciudadanos y futuros votantes para verificar la información que consumiremos en línea en estos tres meses de campaña. La lucha contra la desinformación para mantener la integridad de las elecciones depende de una ciudadanía más informada y crítica, no sólo de los candidatos ni de los partidos e instituciones.  Al tiempo… 


Referencias de interés:

Bradshaw, S., & Howard, P. N. (2018). Troops, trolls and troublemakers: A global inventory of organised social media manipulation. Oxford: Project on Computational Propaganda.

Morales Cáceres, Alejandro, (2020) “El impacto de la inteligencia artificial en la protección de datos personales” World Compliance Association, Capítulo Perú, 01/09/2020. https://www.worldcomplianceassociation.com/2767/articulo-el-impacto-de-la-inteligencia-artificial-en-la-proteccin-de-datos-personales.html 

 

 

Claudia Jiménez Claudia Jiménez Politóloga e Internacionalista en temas de cooperación internacional y derechos humanos en América Latina, con 20 años de experiencia en consultorías nacionales y gobierno. Profesora universitaria y conferencista. Desarrolladora de cursos y proyectos de tecnología y ética para la academia y empresas. Catedrática de la Escuela de Ciencias Sociales y Gobierno, y de Estudios Humanísticos y Educación del Tecnológico de Monterrey. Pionera en Inteligencia Artificial en educación.