“Si la innovación en IA infringe derechos, no es sostenible”: Paola Villarreal

La especialista en ciencia de datos expresa su opinión ante cuestiones éticas y regulatorias de la IA, las estrategias para mitigar alucinaciones y el uso de los datos.
7 Agosto, 2024 Actualizado el 7 de Agosto, a las 18:48
Paola Villarreal en entrevista con Arena Pública.
Paola Villarreal en entrevista con Arena Pública.
Arena Pública

La transgresión de derechos forma parte de los desafíos éticos del desarrollo de la Inteligencia Artificial (IA), según opina Paola Villarreal, autora del libro “Inteligencia Artificial: el nuevo cerebro electrónico”, lanzado recientemente.

Para la especialista en ciencia de datos, no debería priorizarse este desarrollo sin tomar en cuenta diferentes protocolos de protección a las personas, incluso ante la presión de los inversionistas en el desarrollo de esta tecnología.

“En mi opinión, si la innovación infringe derechos, no es sostenible. Entiendo que la presión de inversionistas lleva a que se ignoren lineamientos éticos y leyes, pero creo que eso está mal. Obviamente es un balance, se necesita poder innovar con cierta seguridad, pero sin sacrificar derechos ciudadanos”, opinó.

En entrevista con Arena Pública, Villarreal habló acerca de la regulación, la privacidad de los datos como materia prima del entrenamiento de modelos, así como la colonización de esta tecnología como un factor de riesgo para México y América Latina, entendiendo que los principales desarrolladores se encuentran en Estados Unidos y Europa.

“Creo que es un tema que no se está discutiendo tanto, y estos algoritmos son una forma de ejercer poder, y quien lo tiene es el dueño del algoritmo. Entonces, los gobiernos, sobre todo los latinoamericanos, el rol que vamos a tener es de consumidores, y eso nos deja vulnerables, pues estamos dependiendo de la voluntad que depende mayoritariamente del dinero”, expresa.

Paola Villarreal, una de las cien mujeres más influyentes del mundo en 2019 según la BBC, creadora de la aplicación Ecobici, expresa sus opiniones tras el lanzamiento de su libro, que hace un recuento de la historia de la IA desde las matemáticas, pasando por el ábaco, las computadoras, hasta llegar a los grandes modelos de lenguaje y la Inteligencia Artificial.

Además, aborda los desafíos de la tecnología que, dice, es diferente a otras innovaciones tecnológicas como el teléfono celular. La IA tiene impactos sociales más allá de lo conocido, señala.

 

Arena Pública (AP): ¿Cómo es escribir sobre una tecnología que constantemente está cambiando, como lo es la Inteligencia Artificial?

Paola Villarreal (PV): Significó un reto, pero al mismo tiempo me di cuenta que todo está sostenido en la historia. La tecnología que está detrás no es tan nueva, porque hay forma de trazar las tecnologías anteriores, entonces eso es un poco una solución. La Historia de las Ciencias de la Computación, de la ciencia de datos, nos ayuda a escribir sobre algo que cambia constantemente.


AP: Uno de los temas que se abordan en el libro es el uso de los datos. ¿Cómo abordamos esto desde una perspectiva de ética y privacidad?

PV: No sólo desde la ética y la privacidad, sino también del copyright. Hay quien dice que estos nuevos modelos termina "pirateando contenido". 

Pero una de las herramientas que yo creo que pueden funcionar es justamente las licencias de uso como Creative Commons. Yo tuve la fortuna de trabajar ahí e hicimos un buscador de imágenes abierto; justamente utilizando Common Crawl, una de las bases de datos base de ChatGPT y otros modelos. Me parece que parte de la regulación debería de ser la liberación de contenido utilizando este tipo de licencias. 

Además, el cómo se incorpora la ética es una de las cuestiones fundamentales en este boom de desarrollo, y me parece las organizaciones internacionales y gobiernos deberían estar trabajando constantemente en cómo incorporar estas tecnologías sin que eso vaya en detrimento de sus poblaciones. Yo creo que si empiezan a pensarlo ahorita sería ya un poco tarde.

Hay diversos lineamientos que los modelos tienen que seguir, por ejemplo, el contexto geográfico, que es importante para la población hacia la que está dirigido el modelo para reducir el peligro ético que puede representar. 


AP: ¿Es posible mantener el ritmo acelerado de estos desarrollos, tomando en cuenta las consideraciones que mencionas?

PV: Depende de cada empresa. Por ejemplo, en OpenAI o Microsoft hay especialistas que están dedicados a estudiar el impacto ético; sé que en Meta hay algo similar. 

Creo que es una situación en la que van a tener que pedir perdón en lugar de pedir permiso, por así decirlo. Quizás no lo incorporen ahora, pero eventualmente deberán de haber consecuencias, se deberán implementar mecanismos para la remoción de contenido o algún tipo de compensación monetaria de autores, etcétera. 

Quizá hoy no existan estos mecanismos, pero no dudo que en los próximos años los veamos.

 

AP:¿Cómo consideras que se puede abordar el contenido de deepfakes y sesgos ideológicos en la IA?

PV: Pienso que lo principal es dar más información a las personas. No creo que la solución sea castigar a quienes usan deepfakes, sino más bien prevenir que tengan efecto. Explicar a los usuarios el potencial que tienen, debido a que hay poblaciones específicas que son susceptibles a manipulación. Me parece importantísimo educar a esas poblaciones para que sepan identificar las amenazas. 

También fortaleciendo el periodismo, y fortaleciendo los mecanismos de transparencia y de rendición de cuentas.

 

AP: ¿Has observado que el tema de la sostenibilidad por el uso de energía y recursos para mantener los centros de datos, se encuentra dentro de la conversación de la mano del desarrollo de IA?

PV: No creo que la sostenibilidad y el medio ambiente sea un tema que esté sobre la mesa, sino más bien las empresas están observando que es carísimo. 

Se encuentran en una fase en la que están invirtiendo cantidades exorbitantes de dinero para ejecutar estos modelos. La etapa en la que se encuentran todavía no espera un retorno de inversión, están en una etapa "semilla" de la inversión y eso está provocando el aceleramiento tan drástico que estamos viendo. 

Llegará el momento en el que se pidan retornos de inversión y esto va a significar que van a tener que reducir costos y definitivamente el costo más grande que tienen estos modelos más allá de los salarios, es la infraestructura.

"La infraestructura en términos energéticos es carísima, y esto apenas comienza. Creo que el tema no es directamente el medio ambiente, sino los costos".

Por otro lado, creo que tienen que considerar la optimización. Eso sí está siendo discutido, sí forma parte de la investigación de cómo hacer más eficientes estos algoritmos, sobre todo en la fase de entrenamiento para que no requieran tanto poder de cómputo.

 

AP: ¿Qué avances observas en la mitigación de riesgos de alucinaciones en modelos de IA?

No he visto ninguna estrategia de mitigación, más allá de la constante integración de nuevos modelos entrenados con diversos sets de datos, no creo que haya en sí una una estrategia de mitigación. Más bien es parte del mismo proceso de investigación y de desarrollo. 

La propia sofisticación de los nuevos modelos reduce o intenta reducir esas alucinaciones, entonces pienso que cada vez se van a ir reduciendo más, pero desafortunadamente las que sigan ocurriendo serán más difíciles de detectar.

 

AP: ¿Cuándo se prevé que estos riesgos puedan mitigarse para su uso más general en las empresas?

Creo que podrán ser independientes en unos 3 o 4 años. Pero definitivamente sería una irresponsabilidad la operación autónoma de estos modelos, sobre todo en situaciones críticas, como por ejemplo una recomendación médica o consejos financieros. Un humano entrenado siempre tiene que estar supervisando. 

Pero definitivamente, hoy un humano ya entrenado puede usar todas estas herramientas para "aumentarse".

 

AP: En tu libro mencionas el término “colonización" de la tecnología, especialmente de la IA, haciendo referencia al poder global de las gigantes tecnológicas de Estados Unidos y Europa, ¿cómo afecta esto a México? 

Creo que es un tema que no se está discutiendo tanto, y estos algoritmos son una forma de ejercer poder, y quien lo tiene es el dueño del algoritmo. Entonces, los gobiernos, sobre todo los latinoamericanos, el rol que vamos a tener es de consumidores, y eso nos deja vulnerables, pues estamos dependiendo de la voluntad que depende mayoritariamente del dinero.

No solamente es la colonización, sino también el desarrollo tecnológico que genera soberanía en estos países. La implementación de estos modelos es confiar ciegamente en ellos. Corremos todavía el riesgo de estar más vulnerables siendo solamente consumidores, por así decirlo.


AP: ¿Qué piensas acerca de que una sobrerregulación pueda frenar la innovación?

En mi opinión, si la innovación infringe derechos, no es sostenible. No entiendo que prisa puede haber, si no es una prisa impulsada por la especulación financiera. Es decir que la presión de inversionistas sea lo que esté impulsando la innovación. Eso lleva a que se ignoren lineamientos éticos y leyes... ahí creo que estamos mal. 

Obviamente es un balance, se necesita poder innovar con cierta seguridad, pero sin sacrificar derechos ciudadanos.

 

AP: Los ojos de los inversionistas están puestos sobre el gasto en IA, ¿consideras que en los años posteriores esto continúe así?

Definitivamente. Ahorita, los chatbots se quedan en lo virtual y falta un poco para que den el salto al mundo físico. Por ejemplo, de la mano de los autos autónomos, la automatización de hogares, la automatización de empresas, creo que podrían tener un componente de algún tipo de chatbot o de soluciones de procesamiento en el lenguaje natural, y eso definitivamente creo que impulsa la inversión. 

"Todavía hay un horizonte muy verde en el que hay mucho para donde crecer. Para nada se ha agotado y pienso que estamos solamente viendo el inicio del inicio que dependerá de  la sostenibilidad medioambiental, la colonización, la ética, etc".

 

AP: ¿Cuál es la dimensión de esta tecnología? ¿Es comparable respecto a otro desarrollo tecnológico que hayamos visto?

Lo primero que me vino a la mente, por ejemplo, es el celular, que ha sido una revolución. Yo siento que la IA es más grande que el celular. Creo que sí hemos visto algún tipo de transición similar pero no en esta dimensión, socialmente tiene muchísimo mayor impacto que el celular. Al principio no tenía este impacto social, era más una herramienta de trabajo.

Creo que la IA va a seguir un camino similar en el que se pueden generar herramientas de trabajo, pero también entretenimiento y de comunicación con las personas, y va a tener un impacto mucho mayor al que ha tenido el celular hasta ahora, incluso traspasando esferas sociales.