Anuncia EU su primera regulación de IA; pero ¿qué hay de la privacidad de datos?
Estados Unidos ha dado un paso importante en la regulación de la inteligencia artificial (IA) con una orden ejecutiva emitida por el presidente Joe Biden, cuyo propósito se centra en reducir los riesgos de dicha herramienta para los consumidores, trabajadores, grupos minoritarios, y seguridad nacional. Esta acción ejecutiva representa el primer esfuerzo del Gobierno federal para establecer directrices y normas destinadas a mitigar los riesgos asociados con la IA.
La orden ejecutiva busca que las versiones comerciales de esta herramienta estén más controladas. A su vez establece que los productos de IA que puedan suponer un peligro, especialmente los más avanzados, deberán someterse a pruebas de seguridad exhaustivas. Estas pruebas no solo serán recomendadas, sino que se convertirán en un requisito obligatorio. Además, los resultados de estas pruebas deberán ser notificados al Gobierno federal antes de que los productos se pongan en el mercado. Se llevará a cabo una supervisión constante para evaluar y mitigar los riesgos en curso.
"Para hacer realidad la promesa de la IA y evitar el riesgo, necesitamos gobernar esta tecnología", dijo Biden. "En las manos equivocadas, la IA puede facilitar que los piratas informáticos exploten las vulnerabilidades del software que hace funcionar nuestra sociedad".
Además, aunque no se requiere de manera obligatoria, se recomendará a las compañías de IA generativa que marquen de manera distintiva el contenido, como fotos, vídeos y audios, generados por IA. El objetivo es evitar la confusión entre el contenido generado por IA y el contenido real.
La orden también incluye disposiciones destinadas a salvaguardar la seguridad nacional de Estados Unidos. Esto implica que las empresas que operan servicios de computación en la nube deberán informar al Gobierno sobre sus clientes extranjeros. Además, algunas directrices se mantendrán clasificadas para abordar riesgos específicos.
Esta orden ejecutiva representa un importante paso en la regulación de la IA en Estados Unidos, pero también, en el ámbito internacional. El enfoque en la seguridad nacional y la obligatoriedad de las pruebas de seguridad reflejan la creciente preocupación por los riesgos que esta tecnología puede plantear, tanto en el ámbito nacional como a nivel global.
La acción de Estados Unidos sigue los pasos de la Unión Europea, por ejemplo, que se encuentra a punto de aprobar la primera ley del mundo que regula la IA, basándose en la evaluación de riesgos asociados con su uso. Este enfoque basado en riesgos es un enfoque que también han adoptado China e Israel en sus propias propuestas de regulación de IA.
Pero la orden no se limita a la regulación; también incluye medidas destinadas a impulsar el talento tecnológico en Estados Unidos, como la creación de un portal de empleo específico y un programa de capacitación para formar a 500 investigadores en IA para 2025
En un contexto de regulación casi nula para los desarrollos de Inteligencia Artificial, la orden podría no abordar completamente cuestiones cruciales, como la desinformación difundida por herramientas de IA ya existentes o el uso de la tecnología en la justicia penal. Además, la falta de un mecanismo sólido de cumplimiento podría limitar su efectividad.
Aunque esta orden representa un paso adelante en la regulación de la IA, podrían necesitarse medidas legislativas adicionales, especialmente en áreas como la privacidad de los datos y el extractivismo, un problema creciente incluso para redes sociales.
De acuerdo con el análisis más reciente realizado por Clario Tech, una empresa de seguridad cibernética, Facebook e Instagram destacan como las principales plataformas en la recopilación de datos de usuarios, por ejemplo. Según el informe de 2021, Facebook almacena aproximadamente el 79.5% de los datos de sus usuarios, mientras que Instagram no se queda atrás y retiene alrededor del 69.2% de la información personal de sus usuarios.
Los resultados reflejan la creciente preocupación sobre la cantidad de información personal que se recopila en las redes sociales y aplicaciones en línea. Desarrollos de Inteligencia Artificial, como Chat GPT, apenas comienzan a esclarecer este rubro. En julio de este año, la Comisión Federal de Comercio de Estados Unidos inició una investigación contra OpenAI, en respuesta a acusaciones de posibles violaciones de las leyes de protección al consumidor. La investigación se centra en la presunta exposición de la reputación y los datos personales de los usuarios.
Además, en mayo de este año, después de prohibir al chatbot, Italia restauró al desarrollo después de que se enfrentara a la Garante para la Protección de Datos Personales (GPDP) del país europeo, quien había decidido vetar al desarrollo por riesgos de seguridad en la privacidad de los usuarios. La empresa creadora del chatbot dijo que “brindará una mayor visibilidad de su política de privacidad y el formulario de exclusión voluntaria del contenido del usuario”, modificando su accesibilidad y proporcionando a los usuarios un formulario para que decidan oponerse al procesamiento de datos personales.
Esta preocupación se acrecienta, sin embargo, la regulación de la IA es un tema que tiene diferentes aristas, y que apenas comienza a abordarse. Mientras tanto, Estados Unidos dio un paso importante. Bruce Reed, jefe adjunto de gabinete de la Casa Blanca, aseguró que se tratará del "conjunto de medidas más enérgicas que ningún gobierno del mundo haya adoptado jamás en materia de seguridad y confianza en la IA". "Es el siguiente paso en una estrategia agresiva para hacer todo lo posible en todos los frentes para aprovechar los beneficios de la IA y mitigar los riesgos", dijo.