OpenAI revierte la amenaza de abandonar Europa mientras se refuerza la regulación
Las restricciones debido a la regulación de Inteligencia Artificial no parecen ser un obstáculo para que OpenAI continúe funcionando en Europa, a pesar de que parecía que sí. Sam Altman, director ejecutivo de la popular empresa creadora de Chat GPT, dio marcha atrás a las amenazas que apuntaban a que Open AI se retiraría de la región.
“¡Semana muy productiva de conversaciones en Europa sobre cómo regular mejor la IA! Estamos emocionados de continuar operando aquí y, por supuesto, no tenemos planes de irnos”, dijo el ejecutivo a través de un tuit.
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
— Sam Altman (@sama) May 26, 2023
Días antes, Altman tildó a las reglas impuestas por la Unión Europea de “sobrerreguladas”, y habló acerca de la posibilidad de que la empresa se retirara de la región si no cumplía con las normas. "El borrador actual de la Ley de IA de la UE estaría sobreregulando, pero hemos escuchado que se va a retirar", dijo a Reuters. "Todavía están hablando de eso".
Estas declaraciones se dan en medio de la primera iniciativa por regular los desarrollos de Inteligencia Artificial que poco a poco comenzaron a permear en diferentes aspectos de la vida cotidiana. La Unión Europea (UE) se encuentra trabajando en un borrador inicial de lo que podría ser el primer conjunto de normativas para IA.
Anteriormente, La Unión Europea había planteado una antesala a lo que pretende ser la primera regulación a nivel mundial de este tipo de desarrollos. La Ley de IA de la Unión Europea sería una propuesta legislativa que busca regular el uso de la inteligencia artificial en los países miembros de la Unión Europea (UE).
La propuesta de la Ley de IA fue presentada por la Comisión Europea en abril de 2021 como parte de su estrategia para la inteligencia artificial y los datos. El objetivo principal de esta legislación es garantizar el desarrollo y la implementación de la IA de manera ética y segura, fomentando la innovación y protegiendo los derechos y valores fundamentales de los ciudadanos.
Sin embargo, el lanzamiento de Chat GPT en noviembre del año pasado, provocó un replanteamiento. Según un informe del Financial Times, el Parlamento Europeo estableció este mes reglas adicionales para los sistemas de uso generalizado que tienen aplicaciones generales más allá de los casos previamente abordados.
“La propuesta aún debe negociarse con los estados miembros y la Comisión Europea antes de que la ley entre en vigor en 2025. El plan más reciente requeriría que los fabricantes de "modelos básicos", los grandes sistemas que respaldan servicios como Chat GPT, identifiquen y traten de reducir los riesgos que su tecnología podría presentar en una amplia gama de entornos”, se lee en el reporte.
Los nuevos requisitos de los cuales se comienza a hablar, harían que las empresas desarrolladoras de este tipo de desarrollos, incluídos OpenAI y Alphabet, sean responsables de la forma en la que se utilizan sus sistemas de IA, “incluso si no tienen control sobre las aplicaciones particulares en las que se ha integrado la tecnología”.
En medio de este panorama, Sam Altman se mostró preocupado por los esfuerzos involucrados en llevar a cabo esta difícil tarea. En medio de una visita a Londres, el ejecutivo dijo a la prensa que “los detalles realmente importan. Intentaremos cumplir, pero si no podemos cumplir, dejaremos de operar”, según reporta el Financial Times.
Pero las preocupaciones parecen haberse dispersado, o al menos disminuído, tras lo que él mismo llamó “una semana muy productiva en conversaciones con Europa sobre cómo regular mejor la IA” , pues el ejecutivo pasó la semana recorriendo Europa en medio de reuniones con funcionarios de países como Francia, España, Polonia, Alemania y Gran Bretaña.
Estos países se encuentran dando pasos rápidos ante la regulación, que ya se ve cada vez más palpable al menos en esa región del país. El mundo volteó hacia la UE cuando Italia se convirtió en el primer país en prohibir el uso de Chat GPT en su territorio por preocupaciones en torno a la seguridad de los usuarios, después de que la Garante para la Protección de Datos Personales (GPDP) del país acusara al chatbot de una recopilación ilícita de datos personales, así como de una ausencia de sistemas de verificación de la edad de los menores.
OpenAI tuvo que acatar ciertas normas para que el chatbot pudiera estar en funcionamiento nuevamente en el país italiano. Algunos de los parámetros obligaron a la empresa a brindar una mayor visibilidad de su política de privacidad, además de poner en marcha un formulario para eximir a los usuarios que así lo quieran, de hacer uso de sus datos para entrenar al modelo de IA .
Al parecer la nueva iniciativa europea será mucho más estricta, pues podría obligar a que las empresas tecnológicas publiquen resúmenes de los datos protegidos por derechos de autor que se utilizan para entrenar sus modelos de IA , una discusión que ha sido peleada por artistas. De ser puesta en marcha, esta podría compensar económicamente a los creadores por el uso de su material.
Estados Unidos también se encuentra en medio de una discusión por la regulación de este tipo de tecnología, después de la primera reunión en el Capitolio en la que participaron ejecutivos de los principales líderes tecnológicos, como Alphabet, Microsoft, OpenAI y Anthropic. Durante la reunión se hizo hincapié a los directores ejecutivos para que limiten los riesgos de la IA, para enfrentar las crecientes preguntas y llamadas para regular los desarrollos que avanzan rápidamente.
Aunque la regulación de este tipo de tecnologías apenas comienza a tomar forma, al mismo tiempo lanza preguntas hacia las empresas tecnológicas que podrían replantearse su participación en el mercado del territorio regulador, como lo hizo en un primer momento el CEO de OpenAI. Sin duda alguna, la era de la Inteligencia Artificial trae consigo múltiples variantes que deben ser tomadas en cuenta.