Pacta Europa primera ley para regular Inteligencia Artificial

La Unión Europea se convirtió en la primera región del mundo con un acuerdo sólido para regular sistemas de Inteligencia Artificial (IA) a través de leyes promulgadas.
9 Diciembre, 2023 Actualizado el 11 de Diciembre, a las 14:42
La UE también ha señalado que la nueva ley busca ser "a prueba del futuro", con flexibilidad para adaptarse a tecnologías desconocidas y cambios en las existentes. (Imagen: iStock)
La UE también ha señalado que la nueva ley busca ser "a prueba del futuro", con flexibilidad para adaptarse a tecnologías desconocidas y cambios en las existentes. (Imagen: iStock)
Arena Pública

Un acuerdo histórico ha alcanzado al ecosistema tecnológico. La Unión Europea (UE) ha logrado superar divergencias y alcanzar un acuerdo que establece la primera ley integral de regulación de la inteligencia artificial (IA) a nivel mundial. Tras tres días de intensas negociaciones, los Estados miembros y el Parlamento Europeo sellaron un acuerdo provisional que aún requiere ratificación, pero se espera entre en vigor a finales de 2026.

 

De esta manera, la UE se posiciona como la primera potencia mundial en abordar de manera sólida los usos de la IA para equilibrar las oportunidades que presenta con la necesidad de mitigar riesgos. La llamada Ley de IA, que se espera sirva como estándar global, tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos.

La complejidad de la negociación se evidenció en las prolongadas discusiones sobre cómo regular los modelos de IA de propósito general y las tecnologías de vigilancia biométrica. Las negociaciones giraron en torno a definir riesgos, excepciones y salvaguardias para proteger los derechos fundamentales sin perjudicar la economía o los intereses estatales.

Uno de los puntos más controvertidos fue la regulación de los modelos de IA generativa, como el popular chatbot desarrollado por OpenAI, ChatGPT. La ley establece criterios de transparencia, exigiendo la especificación del origen de los contenidos generados por IA y la garantía de que los datos utilizados para el entrenamiento respeten los derechos de autor.

La UE también señaló que la nueva ley busca ser "a prueba del futuro", con flexibilidad para adaptarse a tecnologías desconocidas y cambios en las existentes. La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, aseguró que la ley impulsará la innovación de manera compatible con los derechos fundamentales.

El acuerdo también abordó la regulación de sistemas de vigilancia biométrica, con restricciones y prohibiciones específicas para salvaguardar la privacidad y los derechos individuales. Aunque se permitirá el uso en tiempo real en espacios públicos bajo estrictas condiciones, se requerirá autorización judicial y una lista restrictiva de crímenes que lo justifiquen.

Además, se estableció un sistema de sanciones significativas, incluyendo multas basadas en el volumen de negocios de las empresas infractoras. Para asegurar el cumplimiento, se prevé la creación de una Oficina de IA independiente, asesorada por un panel científico y la sociedad civil.

La presidenta de la Comisión Europea, Ursula von der Leyen, calificó la normativa como "pionera en el mundo" y un marco legal único para el desarrollo de la IA. 
 

 

La ley es vista como un hito que podría establecer estándares globales, transformando la forma en que se regula y utiliza la inteligencia artificial a nivel mundial. Sin embargo, hay un vacío legal que contrapone esta nueva legislación en una encrucijada.

Pero mientras tanto: Lagunas jurídicas

Debido a que estas normativas no entrarán en vigor hasta 2025, el año que viene queda exento de los acuerdos. La UE insta a las empresas a seguir las reglas voluntariamente durante este periodo, sin sanciones en caso de incumplimiento. Este retraso deja margen para que otras potencias, como Estados Unidos, puedan implementar normativas menos restrictivas antes de la entrada en vigor de las regulaciones europeas.

A pesar de que las empresas de internet y tecnología más valiosas y globalmente influyentes tienen su sede en Estados Unidos, la regulación de las gigantes tecnológicas ha sido transferida a la Unión Europea. En meses anteriores, la UE había pedido con carácter de urgencia a Estados Unidos adoptar una normativa más estricta para los desarrollos de IA, esto durante sus constantes reuniones. Sin embargo, sin este escrutinio, el estándar podría alentarse un año más.

Pero además, esta ley también se enfrenta a otras lagunas. La ley mantiene un enfoque basado en riesgos, aplicando requisitos específicos a sistemas de IA de "alto riesgo". Sin embargo, la inclusión de condiciones de filtrado introduce la posibilidad de que aplicaciones de riesgo, o de bajo riesgo, evadan ciertos requisitos. La prohibición de algunos usos de la IA, como el reconocimiento de emociones en el trabajo, se ve matizada por excepciones, generando incertidumbre sobre los límites de seguridad.

Además, la evaluación de impacto sobre derechos fundamentales se introduce, pero con exenciones policiales que permiten la identificación biométrica en circunstancias específicas. Las infracciones enfrentan multas significativas, pero límites proporcionales podrían incentivar a grandes empresas a subcontratar proyectos riesgosos a empresas más pequeñas.

En términos de gobernanza, se establece una Oficina de IA y una Junta de IA para supervisar y coordinar. Sin embargo, la participación de la sociedad civil y las partes interesadas plantea dudas sobre la amplitud de su influencia, tal como informa Social Europe.

Aunque se presenta como una plataforma para la innovación, críticos sugieren que la ley podría tener un efecto más desregulador que protector, generando incertidumbre sobre sus verdaderos objetivos y su capacidad para equilibrar la promoción de la innovación con la protección de la sociedad. Además, también se habla de muchas aristas descubiertas y desprotegidas. “Me parece un paso de gigante en la regulación: es la primera ley sobre estos temas en Occidente. Lo que me decepciona es el papel de Europa a la hora de ir más allá, de crear un mercado vinculado a la IA responsable. Tanto Estados Unidos como Asia y China se están poniendo las pilas”, dice Gemma Galdón, fundadora y CEO de Éticas Research and Consulting, compañía que asesora a organismos para el uso responsable de la IA en entrevista para El País.

La reacción de los gobiernos asiáticos ante la regulación ha sido de cautela, y muchos de ellos adoptan una postura de "esperar y ver" o muestran preferencia por un enfoque regulatorio más flexible. En el caso de Singapur, un destacado centro tecnológico en Asia, las autoridades prefieren observar la evolución de la tecnología antes de ajustar las normativas locales. Han expresado inquietudes sobre el riesgo de dañar la innovación al apresurar la implementación de regulaciones.

Japón, por su parte, se inclina hacia normativas más flexibles que las propuestas por la Unión Europea. El país busca utilizar la tecnología como motor de crecimiento económico y posicionarse como líder en el ámbito de los chips.

Aunque la regulación llegó un año después de la llegada de ChatGPT, se viene planeando desde un año antes, desde 2021, aunque el acelerado panorama tecnológico dificulta la atención de todos los sectores en los que incursiona la IA , sin embargo, esta primera ley seguirá siendo un parteaguas para la regulación futura de las demás potencias mundiales.