Llega la IA de Meta a México, aprovechando una regulación “descafeinada”

En países como Brasil, Meta detuvo el lanzamiento de sus desarrollos de Inteligencia Artificial por preocupaciones del uso de datos para el entrenamiento de sus modelos. En México la situación regulatoria parece darle libertad para el uso de datos de los usuarios mexicanos a modo.
25 Julio, 2024 Actualizado el 25 de Julio, a las 19:07
Los huecos regulatorios exponen a los usuarios a una vulnerabilidad enorme, pero, ¿es posible hacer algo para hacer frente a esta práctica?
Los huecos regulatorios exponen a los usuarios a una vulnerabilidad enorme, pero, ¿es posible hacer algo para hacer frente a esta práctica? (Imagen: Meta)
Arena Pública

Instagram, Facebook y WhatsApp introdujeron un asistente de Inteligencia Artificial (IA) generativa al que se le pueden hacer diferentes consultas y peticiones muy al estilo de un chatbot. Se llama Meta AI, funciona con Llama 3, la familia más sofisticada de modelos de IA de la compañía, y ahora está disponible en México.

Pero en otros países, como Brasil y el territorio de la Unión Europea, este lanzamiento se detuvo por preocupaciones del uso de datos personales para el entrenamiento del modelo. En México, este no parece ser un obstáculo para el debut del modelo, cuyo entrenamiento se basa en imágenes y publicaciones públicas de los usuarios. Incluso, la opción de prohibir el uso de los datos personales para dicho entrenamiento se acerca a lo que parece ser un Dark Pattern, es decir, un procedimiento difícil de entender y que no asegura la prohibición del uso de datos del usuario.

Meta aprovecha, además, una regulación “descafeinada”, con un órgano protector de datos personales debilitado, y con una regulación desactualizada. Esta práctica no está prohibida, sin embargo, según opina Héctor Guzmán Rodríguez, responsable del área de Protección de datos e Inteligencia Artificial en BGBG Abogados, la forma en la que la empresa solicita el consentimiento de uso de datos no cumple con los requisitos del consentimiento válido conforme a la normativa vigente en México.

“Nuestra ley está tan descafeinada que no alcanza a cubrir los requisitos que tiene, por ejemplo, el RGPD (el reglamento europeo), y nadie exige el cumplimiento de nuestra ley tal y como está planteada para cuestionar la legalidad del uso de nuestros datos por parte de Meta. Lo que hace no es completamente ilegal, pero la manera en la que solicita nuestro consentimiento para hacerlo no está bien, porque no cumple con los requisitos del consentimiento válido conforme a nuestra normativa vigente en México”, dijo en entrevista.

La libertad con la que se desenvuelve esta práctica preocupa por muchas razones, entre ellas la manipulación. Así lo opina María de Lourdes Martínez, presidenta de la Sociedad Mexicana de Inteligencia Artificial. “Hay aplicaciones en que el producto eres tú. Van a sacar dinero de lo que conozcan de ti. Puede haber muchos problemas éticos, la privacidad es uno de ellos, pero también la manipulación”, señaló en entrevista.

Las diferentes preocupaciones anteriormente fueron abordadas por reguladores en el ámbito intencional, lo que llevó a Meta a detener sus lanzamientos. A inicios del mes de junio, la empresa detuvo el lanzamiento de su asistente de inteligencia artificial en Europa debido a una solicitud del regulador irlandés de privacidad sobre el uso de datos de usuarios obtenidos de Facebook e Instagram.

La decisión de Meta se tomó tras los reclamos y el llamado del grupo de defensa NOYB a las autoridades de protección de datos (DPA, por sus siglas en inglés) de Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España para que actuaran contra la empresa.

Lo mismo sucedió con el reciente lanzamiento de la versión avanzada de su modelo Llama en formato multimodal, es decir, que funcionará con texto, vídeo, imágenes y audio. La empresa atribuyó esta abstención a “la naturaleza impredecible del entorno regulatorio europeo”.

La restricción también llegó a Brasil, donde la empresa suspendió el uso de herramientas de inteligencia artificial generativa debido a las objeciones del gobierno sobre su nueva política de privacidad.

Esto después de que la Autoridad Nacional de Protección de Datos (ANPD) de Brasil suspendiera de manera inmediata la validez de la política de privacidad de Meta relacionada con el uso de datos personales para entrenar sistemas de inteligencia artificial generativa. La ANPD ordenó a la empresa que ajustara su política para excluir la sección dedicada al tratamiento de datos personales con fines de entrenamiento de IA generativa.

En respuesta, Meta optó por suspender el uso de estas herramientas mientras mantiene conversaciones con la ANPD para resolver las preocupaciones planteadas por la autoridad brasileña.

El descontento de los órganos regulatorios surgió después de que el mes pasado, la empresa actualizara sus condiciones de uso, anunciando que utilizaría las “publicaciones antiguas” de los usuarios de sus redes sociales para mejorar el rendimiento de sus sistemas de inteligencia artificial.

El alimento de la IA

A partir del 26 de junio, Meta comenzó a utilizar antiguos posts públicos, fotografías  y nombres de millones de usuarios de Facebook e Instagram de todo el mundo como datos para entrenar sus sistemas de IA.

La empresa aclaró que solo utilizará contenidos que ya son públicos. Los mensajes privados, las publicaciones compartidas únicamente con amigos y las Stories de Instagram no están incluidos. Sin embargo, la IA de Meta está aprovechando archivos personales que han estado olvidados en rincones de internet, y según Matthew Pollard, portavoz de Meta, las publicaciones de los usuarios estadounidenses han estado alimentando los modelos de IA de la compañía desde 2023, según dijo a Wired.

Pero esta no es la única empresa que ha alimentado a su IA con datos personales, ni la única que ha sufrido el escrutinio europeo. Apple también anunció el mes pasado que no lanzaría tres de sus funciones recientemente anunciadas, incluyendo su producto estrella de inteligencia artificial “Apple Intelligence”, en la Unión Europea en 2024 debido a “incertidumbres regulatorias” relacionadas con la Ley de Mercados Digitales del bloque.

En un comunicado, Apple explicó que las funciones Apple Intelligence, iPhone Mirroring y mejoras en su herramienta de compartir pantalla SharePlay, no estarían disponibles para los clientes de la UE. La empresa argumenta que los requisitos de interoperabilidad establecidos por la Ley de Mercados Digitales (DMA) podrían obligarla a comprometer la integridad de sus productos, poniendo en riesgo la privacidad del usuario y la seguridad de los datos.

Esta es una práctica muy común de las gigantes tecnológicas que no ha sido operada solamente para fines de entrenamiento de un modelo. Mayormente, las empresas  ocupan los datos de las personas para hacer más precisa la publicidad y así lograr segmentación. Es una estrategia que acompaña los modelos de negocio de las gigantes tecnológicas.

“Las empresas pueden observar semejanzas, diferencias, o patrones que coinciden uno con el otro, por eso es que entre más datos tengan, te conocen mejor”, opina Lourdes Martínez.

¿Puedo evitar que Meta AI se alimente de mis datos?

La información de Meta asegura que lleva a cabo esta práctica. En la sección de privacidad de los datos de la cuenta de Facebook, la empresa ofrece la siguiente información:

"Se necesita una enorme cantidad de datos para entrenar modelos eficaces y, por ello, se usan distintos orígenes, como información pública en internet e información cedida bajo licencia. Además, usamos la información que compartes en los productos y servicios de Meta. Esta información puede incluir publicaciones o fotos con sus correspondientes pies de foto. Sin embargo, no usamos el contenido de tus mensajes privados con amigos y familiares para entrenar nuestras IA".

Del mismo modo, en los términos del servicio, Meta explica que cuando se comparte información con las IA, estas pueden conservar y usar dicha información para proporcionar respuestas más personalizadas. Estas conversaciones pueden eliminarse.

Sin embargo, las opciones para impedir esta práctica no están disponibles en todos los países. En México, se encuentra disponible un formulario que  tiene opciones tanto de acceder a la información personal recopilada por terceros que se use para desarrollar y mejorar la IA en Meta, así como descargarla o corregirla. Las opciones también permiten pedir la eliminación de esta información, , así como enviar una solicitud de información sobre una inquietud sobre la información personal de terceros que está relacionada con una respuesta  de un modelo, función o experiencia de la IA en Meta.

La "información recopilada por terceros" se refiere a la información que Meta tiene disponible para el entrenamiento del modelo, misma que incluye todo aquello que está disponible públicamente en internet, así como información con licencia, de la que otra persona posee los derechos y autoriza a Meta a usarla.  

"Por lo general, la información personal es información sobre ti. Incluye tu nombre, domicilio, número de teléfono o dirección de correo electrónico", se lee en el formulario.

 Sin embargo, el cuestionario es confuso en las casillas, y no es claro respecto a la negación de esta práctica. Es decir, para llevar a cabo alguna de las tres solicitudes, es necesario comprobar que algun desarrollo de IA dio una respuesta que involucró datos personales del usuario, pues también pide insertar pruebas que pueden ser capturas de pantalla, y explicar cómo fue que el modelo respondió.

"Para procesar tu solicitud, necesitamos saber si los modelos de la IA en Meta tienen conocimiento sobre ti. Escribe las indicaciones que ingresaste y que generaron que tu información personal apareciera en una respuesta de un modelo, función o experiencia de la IA en Meta. También necesitamos alguna prueba de la respuesta en la que se mostró tu información personal", explica el formulario.

Para más información, Meta explica las “reglas del juego”, mismas que son acatadas siempre y cuando se use la aplicación, por lo tanto, de no querer que se lleve a cabo esta práctica, el usuario tendría que dejar de usar la aplicación, por lo que impedir está práctica, no es una opción para los usuarios mexicanos, pues la solicitud sólo puede procesarse si se demuestra que un modelo respondió evidentemente basada en información del ususario,

“La privacidad está recayendo en la responsabilidad del usuario. Están proporcionando un pergamino larguísimo en el cual, yo tengo que dar aceptar forzosamente porque si no, no me dejan usar el App. Actualmente recae en la autorregulación de las plataformas, porque falta robustecer la legislación”, opina María de Lourdes Martínez.

Como lo expone la experta en datos e IA , los huecos regulatorios exponen a los usuarios a una vulnerabilidad enorme, pero, ¿es posible hacer algo para hacer frente a esta práctica?


INAI vs IA

En nuestro país los datos están protegidos por la Ley Federal de Protección de Datos Personales en Protección de los Particulares, respaldada por la autoridad regulatoria, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI).

Sin embargo, este tipo de eventos no se encuentran regulados debido a que son demasiado nuevos, por lo que el uso de datos por parte de Meta no es ilegal en el país. Héctor Guzmán señala que los requisitos que se deben de cumplir para satisfacer el principio general en el que se mueve nuestra ley, es el consentimiento de las personas para el tratamiento de sus datos personales.

A partir de ahí debe de analizarse cuál es la validez de ese consentimiento, y la empresa debe acreditar que el tratamiento de los datos es necesario y si es proporcional para el servicio que están prestando.

“La proporcionalidad, la licitud y el consentimiento son principios aplicables al tratamiento de los datos personales. De acuerdo a nuestra normativa de México yo tendría que tener la oportunidad de manifestar mi negativa para ese tratamiento de mis datos porque es una finalidad secundaria, no es esencial para la prestación del servicio, si no es esencial para mantener la relación jurídica iniciada con esa red social, entonces es una finalidad secundaria como se maneja en nuestra ley mexicana”, explica.

Como lo señala el experto, es posible que un usuario se acerque al INAI para saber qué es lo que está sucediendo en torno al uso de los datos personales. Según lo explica el experto, es posible que Meta esté llevando a cabo prácticas que dificulten la práctica de los derechos ARCO, que comprenden el Acceso, Ratificación, Cancelación y Oposición. El INAI no respondió inmediatamente a una solicitud de Arena Pública al respecto. 

Sin embargo, el experto piensa que es difícil que la investigación arroje resultados. Esto, porque el regulador trabaja con una ley de 2010, y porque tiene cierta vulnerabilidad respecto a la aplicación extraterritorial, debido a que Meta es una empresa internacional.

“Muy probablemente pase lo que ya pasó en otros casos y es que te digan: yo no soy la empresa que maneja los datos de una empresa que está en California, pregúntale a ella. Entonces empieza el juego de las jurisdicciones y la cuestión es si puede o no puede investigar una empresa que se encuentra fuera del territorio mexicano”.

Además, el experto señala que el organismo se encuentra debilitado. “No hemos armado a nuestra autoridad en materia de protección de datos con todas las herramientas necesarias para defender los intereses los derechos y libertades de las personas que estamos en México contra este tipo de situaciones. Hay motivos políticos que han debilitado a una institución como el INAI”, explica.

Por esta razón, es posible que la investigación se dificulte. Sin embargo, el especialista asegura que, aunque se trate de una “Ley vieja”, y no cuente con el mismo nivel de exigibilidad que existe en una región como la Unión Europea, el reglamento mexicano tiene suficientes principios y obligaciones en la ley vigente para cuestionar si Meta realiza sus prácticas de manera eficiente en México.

“La respuesta, probablemente, sea que no”, infiere el experto, quien además exhorta a la conciencia sobre el tratamiento de los datos por parte de los usuarios como otro factor determinante.