“Nos ganó el tiempo” en la regulación de IA y deepfakes: Alejandra Lagunes

Es urgente que el Poder Legislativo se modernice y tenga un órgano consultivo técnico de expertos multidisciplinario que ayude a los legisladores a regular el uso de inteligencia artificial, dice la senadora del Partido Verde en entrevista.
18 Julio, 2024 Actualizado el 1 de Agosto, a las 22:18
Alejandra Lagunes. (Foto: Arena Pública)
Alejandra Lagunes. (Foto: Arena Pública)
Arena Pública

La lenta regulación de Inteligencia Artificial en México parece no estar ni siquiera en las discusiones del legislativo, y la preocupación se agrava con el continuo avance y desarrollo de la tecnología.

Para la senadora Alejandra Lagunes, se trata de un tema de severa preocupación, y con muchos retos todavía por afrontar, entre ellos la falta de una Ley de Ciberseguridad que prohíba explícitamente la difusión de contenido falso creado con Inteligencia Artificial, también conocido como deepfake, así como la falta de conocimiento de los tecnicismos derivados de esta tecnología.

El camino es largo, pero para Lagunes las trabas en el legislativo no son un problema reciente. “La realidad es que para que pasen las cosas necesitas que este tema esté en la agenda al más alto nivel […] Cuesta mucho trabajo poner un tema en la agenda sobre todo cuando son temas tan nuevos, muchas veces técnicos”, dijo la senadora en entrevista.

“En el tema de deepfakes para elecciones nos ganó el tiempo, y se nos fueron los seis años para poder regular el tema”, sentenció la también miembro fundador de la Alianza Nacional de Inteligencia Artificial.

Lagunes, quien concluirá su encargo en el Senado el próximo 31 de agosto, también fue Coordinadora de Estrategia Digital Nacional de 2012 a 2017, durante el mandato del expresidente Enrique Peña Nieto, donde diseñó, coordinó y evaluó la Política de Datos Abiertos. También se desempeñó en el ámbito privado en empresas como Televisa Interactive, Google México y Yahoo.

La entrevista con la senadora se da como respuesta a un análisis publicado por Arena Pública hace unos días, sobre la creación de contenido de voz falso en dos plataformas impulsadas por IA, con cuatro voces de personajes de alto nivel de la política y economía mexicana. La conclusión fue contundente: no existen filtros de seguridad o de autenticación que prohíban la clonación de voz, algo que representa peligros de desinformación y de vulneración de los datos. 

“La realidad es que no existe la conciencia de que este es un tema grave y urgente”, comenta Lagunes.

Arena Pública (AP): ¿Qué tan preocupante resulta que hoy en día cualquier persona pueda clonar una voz de alguien más sin su consentimiento y pueda difundirla con facilidad?

Alejandra Lagunes (AL): El tema de los deepfakes tiene menos de un año que realmente se masificó y lo digo de desde una perspectiva de preocupación.

Es uno de los riesgos del uso de la IA. Nosotros no pudimos legislar en temas de deepfakes para el uso en campañas políticas porque se nos fue el tiempo. Cuando lanzamos la Alianza Nacional de Inteligencia Artificial (ANIA) hace año y medio, empieza el debate de expertos y de expertas, y la última fecha para haber hecho una modificación en una reforma a la Ley Electoral hubiera sido mayo, y la realidad es que no vimos el riesgo de los deepfakes hasta unos meses.

Estamos hablando de una tecnología completamente nueva entonces como toda tecnología nueva, avanza mucho más rápido que la regulación y que la legislación y esto pone en riesgo no solamente la dignidad de las personas, o los derechos de las personas a su privacidad y a su seguridad, sino también pone el riesgo a la democracia.

Los deepfakes lamentablemente se están utilizando para pornografía, y en su gran mayoría somos las mujeres las más afectadas. Estamos frente a uno de los grandes riesgos de la inteligencia artificial.

Hay muy pocos países que han podido regular. Tenemos como ejemplo a la Unión Europea, algunos estados de Estados Unidos, China o Corea del Sur, que sí han regulado el uso de deepfakes. Además, las plataformas se están autorregulado, es decir, que si tú subes una imagen o un video o un audio hecho con inteligencia artificial que haya una marca de agua para que tú sepas que lo que estás viendo o escuchando es IA; sin embargo, todavía no se ha podido implementar.

Ya hubo anuncios de Meta para que todo el contenido de IA en Facebook o en Whatsapp tenga una marca de agua. El gran problema es que en dos años, para el 2026, el 90% del contenido que consumamos va a estar hecho con IA, entonces, aquí la gran pregunta es:  ¿cómo vamos a hacer para que para que protejamos del mal uso de los deepfakes

Hay 43 iniciativas presentadas al día de hoy sobre inteligencia artificial. De estas 43 iniciativas, 22 buscan tipificar delitos y modificar el Código Penal. De estas, 19 iniciativas, tratan de deepfakes o de violencia digital: Ninguna se ha ni siquiera debatido. Ninguna.

La realidad es que no existe la conciencia de que este es un tema grave y urgente. 

Lo que nos queda hacer en lo que se regula, es que, como usuarios de esta tecnología, hay que tener mucho cuidado con qué compartimos, quién está siguiéndonos en nuestras redes, no subir imágenes de nuestros hijos, ni de ninguna persona que no nos la autorice porque estamos poniéndonos a nosotros y a las personas y sobre todo a los niños en riesgo.

Ojalá, se retomen varias de las iniciativas que se presentaron durante esta legislatura porque ya hay un trabajo muy avanzado y que se pueda legislar de manera urgente.

 

AP: ¿Qué preocupaciones concretas existen sobre la regulación de IA en el país?

AL: Hay una gran preocupación por dos cosas: una porque no tenemos una Ley de Ciberseguridad en México, y dos, por el tema del Estado de Derecho. Entonces hay un gran reto en nuestro país, y también en varios países de Latinoamérica.

No tener el marco normativo ni el andamiaje jurídico que nos proteja como usuarios de esta de esta tecnología es un reto. Hoy ya no hay vuelta atrás.

Por otro lado, está el Estado de Derecho: los deepfakes no son un crimen. No es delito contemplado. Esto muestra que muchas veces el daño que se hace es irreparable, entonces tenemos que ir un paso atrás  y prevenir, es decir, tener este marco donde este delito ya esté en la ley,  y donde haya penas realmente severas para el uso de esta tecnología que dañe la la dignidad de las personas.

Respecto a creaciones con inteligencia artificial estoy por presentar una iniciativa de una Ley de Ciberseguridad donde ya se incluya modificaciones al Código Penal para incluir este este tipo de delitos.

 

AP: ¿Cómo ha sido legislar en México? ¿Qué tantas trabas hay para estos temas?

AL: Yo tengo 25 años en el área de tecnología, 15 años en el gobierno. La realidad es que para que pasen las cosas necesitas que este tema esté en la agenda al más alto nivel.

En el momento en que el tema de transformación digital estuvo en el Plan Nacional de Desarrollo, en ese momento cambió todo, porque cuando un tema está en el Plan Nacional de Desarrollo, todos los objetivos están centrados en este plan. Durante esos seis años pasan las cosas, hay interés, hay presupuesto, hay estrategia y las cosas pasan y pueden pasar muy rápido.

Desde el legislativo, la realidad es que cuesta mucho trabajo poner un tema en la agenda sobre todo cuando son temas tan nuevos, muchas veces técnicos, es decir, que los legisladores y sus equipos lleguen a entenderlo cuesta tiempo y muchas veces el tiempo nos puede ganar. 

En el tema de las falsificaciones profundas para elecciones nos ganó el tiempo, y se nos fueron los seis años para poder regular el tema de deepfakes. 

Se tienen que juntar muchas cosas para que un tema realmente llegue al Pleno y se pueda votar. La primera iniciativa que yo presenté fue la de prohibir las terapias de conversión y fue la última que se votó después de seis años. Seis años. Imagínate en un tema así. Ahora este tema que además es exponencial, la tecnología está cambiando de una manera que traspasa cualquier legislación.

Es urgente que el Senado y la Cámara de Diputados se modernicen y tengan un órgano consultivo técnico de expertos, multidisciplinario, que pueda ayudar a a los legisladores y a las legisladoras a entender estos temas y poder hacer iniciativas de la mano de expertos conectados con lo que está pasando con el mundo, para poder sacar iniciativas muy completas para votarlas muy rápido. Si no, veo iniciativas como las que tenemos ahora, que son partecitas, pero que realmente no toman en cuenta toda la realidad en temas tan nuevos como inteligencia artificial.

 

AP: ¿Qué tanto vieron la incidencia de deepfakes en el pasado periodo de elecciones? 

AL: Muchísimo. Los deepfakes se están duplicando cada tres meses. 

Recordemos que este año fue el año de las elecciones más grandes en la historia y todas las campañas se centran en el medio digital, se centran ya en las redes sociales. Hay 90 millones de usuarios en México de Internet, casi 100 millones de usuarios de los cuales 90 millones estamos en redes sociales.

Las campañas políticas pasaron en las redes sociales y fueron muy sonados algunos casos de uso de deepfakes. Cualquier persona puede hacer un deepfake de manera muy fácil, eso estuvo muy presente durante las durante las campañas.

 

AP: ¿Qué tan cerca estamos de poder regular este tipo de contenidos?

AL: Yo estoy muy optimista porque de estas 43 iniciativas, que la mitad sean para modificar el Código Penal, creo que habla del interés que hay de muchos legisladores.

Estoy muy optimista de que esto se pueda regular muy pronto. Incluso en el primer semestre de la siguiente legislatura de aquí a diciembre, sobre todo porque sé que hay legisladores que van a continuar con este tema ya como bandera, por ejemplo, la senadora Olga Sánchez Cordero que trae este tema.

Tenemos que entrar a una nueva era de corresponsabilidad. Debemos tener mucho cuidado de qué es lo que estamos subiendo, de qué es lo que estamos consumiendo, lo que estamos replicando, porque estamos entrando a una era donde ya no sabemos que es real y que es falso.