Entrenamiento de IA con fotos de usuarios de Meta agudiza riesgos de privacidad
Los riesgos de privacidad con la llegada de la IA podrían multiplicarse. La empresa matriz de Facebook e Instagram anunció una nueva política de privacidad que entrará en vigor a finales de junio, la cual permite el uso de las fotos de los usuarios para entrenar su Inteligencia Artificial (IA). La medida reaviva el debate en torno a la preocupación del tratamiento y seguridad de los datos.
Pablo Ballarin Usieto, asesor de ciberseguridad y fundador de Balusian, empresa de ciberseguridad, asegura que los riesgos en torno al entrenamiento de desarrollos de IA con información personal de usuarios presenta varios riesgos significativos de privacidad, entre ellos la exposición de datos, su uso no consentido y la perpetuación de sesgos, mismos que ya existen en la esfera tecnológica, pero que podrían agudizarse con el entrenamiento de esta nueva herramienta.
“En primer lugar, existe el riesgo de exposición de los datos personales con los que se entrena la IA, donde la información sensible puede ser accesible a terceros no autorizados si no se anonimizan adecuadamente o si hay brechas de seguridad”, explicó en entrevista.
Además, el experto señala que los datos, incluso si son anonimizados, pueden ser reidentificados mediante técnicas avanzadas, lo que puede vincular información anónima con individuos específicos.
Por otro lado, los usuarios pueden no estar al tanto de que su información está siendo utilizada para entrenar modelos de IA, violando el principio de consentimiento informado, aunque, si no se obtienen los consentimientos adecuados o no se protegen los datos de acuerdo a las normativas, puede llevar a sanciones en regulaciones como Reglamento general de protección de datos (RGPD) en Europa.
La perpetuación de discriminación y sesgo, también se trata de un tema latente en los desarrollos de IA, mismos que “pueden estar entrenados con datos sesgados y a su vez, amplificar estas desigualdades, afectando negativamente a ciertos grupos”, señala el experto.
Pero como un principal punto, existe la pérdida de autonomía y control que tenemos sobre los datos personales. Aunque la gigante tecnológica asegura que no se utilizarán los mensajes privados con amigos y familiares para entrenar sus IA, todo el contenido público, como fotos y pies de foto, está incluido en el nuevo uso de datos. A partir del 26 de junio, los usuarios que no hayan rechazado explícitamente estas condiciones verán sus fotos y datos utilizados por la IA de Meta.
La actualización de la política de privacidad de Meta incluye la posibilidad de utilizar textos, fotos y audios publicados en sus plataformas para alimentar modelos de lenguaje como Llama 3. Este tipo de modelos requieren vastas cantidades de datos para ser eficaces.
Incluso si un usuario rechaza las nuevas condiciones, Meta podría usar su información si otra persona comparte una foto donde aparezca etiquetado. Esto se debe a que la IA toma la información de todos los que aparecen en la imagen, independientemente de si han aceptado la política o no.
Como otras grandes empresas tecnológicas, incluyendo Microsoft, OpenAI y Alphabet (matriz de Google), Meta recopila enormes cantidades de datos de terceros para entrenar sus modelos de inteligencia artificial, y esto no es extraño.
Al menos para Meta, pues los datos personales de los usuarios son fundamentales, especialmente para la empresa, que en el cuarto trimestre de 2023, alcanzó una facturación total de casi 40 mil millones de dólares, de los cuales más del 97% provinieron de ingresos publicitarios, según Statista. Esta información permite a Meta no solo mejorar la precisión con la que dirige anuncios a los usuarios y ofrecer publicidad más relevante, sino también optimizar otros aspectos de su negocio.
Esto quedó en descubierto en 2018, cuando la gigante tecnológica enfrentó una demanda que alegaba que la red social permitió a terceros, incluyendo a Cambridge Analytica, acceder a datos de usuarios sin su consentimiento. Cambridge Analytica, una empresa británica especializada en análisis de datos, se dedicaba a la minería y análisis de datos para influir en campañas políticas y electorales. La empresa afirmaba poder recopilar y analizar datos de millones de usuarios de redes sociales para identificar patrones de comportamiento y preferencias, creando perfiles de votantes y estrategias de microsegmentación y publicidad altamente específicas.
La regulación de gigantes tecnológicas para evitar este tipo de prácticas, aún se encuentra en proceso, como es el caso de la recién implementada Ley de mercados Digitales, en Europa, que si bien se centra en las prácticas monopólicas de las empresas, obliga a Meta a permitir que los usuarios desvinculen sus cuentas de Instagram y Facebook para no cruzar datos entre ambas redes sociales.
La Inteligencia Artificial probablemente le plantee a Meta más de un desafío, debido a que, mientras comunica el entrenamiento de sus desarrollos, al mismo tiempo trabaja en erradicar los contenidos maliciosos como los deepfakes, creados con IA.
Esta dualidad tendrá que obligar a Meta a equilibrar su rol en la erradicación de contenidos, con la necesidad de ser transparente sobre el uso de los datos. Así lo plantea Pablo Ballarin:
“La confianza del usuario puede verse afectada si no se comunica claramente cómo y por qué se utilizan sus datos. Asegurar que los usuarios estén plenamente informados y que consienten explícitamente al uso de sus datos es crucial para evitar violaciones de reglamentos, y para mantener la confianza en la plataforma. Además, Meta debe encontrar un equilibrio entre utilizar datos personales para mejorar la seguridad de su plataforma y proteger la privacidad de los usuarios, implementando robustos mecanismos de anonimización y protección de datos para minimizar el riesgo de exposición”, señala.
Además, el experto concluye con la idea de gestionar la percepción pública para mantener una ética empresarial sólida en el manejo de datos personales. “Es crucial para evitar percepciones de hipocresía o doble moral”, asegura.
Para los usuarios que no consientan el entrenamiento de modelos de IA con el contenido en redes sociales, Meta ha habilitado un formulario para que los usuarios puedan oponerse al uso de sus datos.
Para acceder a este formulario, los usuarios deben ir a la política de privacidad en Instagram o Facebook. Para completar el formulario, los usuarios deben proporcionar su correo electrónico, país de residencia y detallar cómo les afecta el nuevo uso de sus datos y por qué presentan una objeción. Meta revisará estas peticiones y, de ser aceptadas, excluirá los datos del usuario del entrenamiento de su IA.