Abordan líderes globales riesgos de la AI; publican acuerdo histórico
La regulación de la Inteligencia Artificial tuvo un evento sin precedentes, después de que representantes y empresas de 28 países, incluyendo los Estados Unidos, China y la Unión Europea, se reunieran para firmar un acuerdo sin precedentes destinado a abordar los riesgos potenciales de la IA de vanguardia.
La Cumbre de Seguridad de la IA, que tuvo lugar en Bletchley Park, Reino Unido, lugar que una vez fue el hogar de los descifradores de códigos de la Segunda Guerra Mundial; durante dos días reunió a expertos en tecnología, líderes globales y representantes con el propósito de discutir los riesgos de dicha tecnología. La cumbre también destacó la importancia de la cooperación internacional en la creación de un futuro seguro y ético para la IA.
El CEO de Tesla y OpenAI, Elon Musk, destacó la importancia de abordar los riesgos asociados con la IA, señalando que es "una de las mayores amenazas para la humanidad". Musk propuso la idea de un "árbitro" para las empresas de tecnología, pero instó a la precaución en la regulación para no inhibir los aspectos positivos de la IA. "La seguridad de la IA es vital para el futuro de la civilización", expresó.
El acuerdo central de la cumbre es la Declaración de Bletchley sobre la seguridad de la IA, que fue firmada por representantes y empresas de 28 países, incluyendo Estados Unidos, China y la UE. Su objetivo es identificar y abordar los riesgos de seguridad asociados con los modelos de IA de vanguardia, como los modelos generativos utilizados en aplicaciones como ChatGPT.
La Declaración de Bletchley, reconoce en primer lugar el potencial de la IA como una herramienta capaz de "mejorar el bienestar humano, la paz y la prosperidad". Sin embargo, enfatiza la necesidad de que la IA se desarrolle de manera segura y con una perspectiva humanista y responsable, especialmente en áreas críticas como la salud y la educación, para avanzar en esta dirección.
Los firmantes de la declaración subrayan la importancia de aprovechar este momento único para garantizar que todas las oportunidades que ofrece esta tecnología se utilicen para el beneficio de la humanidad.
Además, la declaración identifica algunos de los riesgos más significativos en este campo, derivados tanto del mal uso intencional como de la falta de control. También destaca la importancia "crítica" de un acuerdo internacional para mitigar o eliminar estos riesgos, con énfasis en ámbitos como la ciberseguridad, la biotecnología y la propagación de la desinformación.
Dado el rápido y continuamente cambiante panorama de la IA, así como el crecimiento acelerado en la inversión tecnológica, la declaración subraya la urgencia de comprender a fondo estos riesgos potenciales y tomar medidas para abordarlos.
La Secretaria de Estado de Ciencia, Innovación y Tecnología del Reino Unido, Michelle Donelan, calificó el acuerdo como un "logro histórico" que sienta las bases para futuras discusiones sobre políticas de IA. Sin embargo, algunos expertos consideran que el acuerdo no va lo suficientemente lejos y que se necesitan políticas concretas y mecanismos de rendición de cuentas más sólidos.
Además, la cumbre también generó reacciones mixtas de la comunidad tecnológica. Nick Clegg, presidente de asuntos globales de Meta, señaló la existencia de un "pánico moral" en torno a las nuevas tecnologías y advirtió que las regulaciones gubernamentales podrían enfrentar resistencia por parte de las empresas tecnológicas. Mark Surman, presidente y director ejecutivo de la Fundación Mozilla, hizo un llamado a enfoques abiertos y transparentes para garantizar la seguridad de la IA.
Aunque, independientemente de la reacción, las principales empresas de inteligencia artificial publicaron sus políticas de seguridad para la cumbre. DeepMind, por ejemplo, delineó sus políticas de seguridad a raíz de una solicitud del Secretario de Tecnología. Las empresas publican su respuesta, ya que el gobierno del Reino Unido también establece procesos de seguridad para que las empresas de inteligencia artificial ayuden a mantener seguros sus modelos a medida que continúan desarrollándolos y aprovechando las oportunidades. El Primer Ministro Rishi Sunak describió los riesgos de la IA y estableció que el Reino Unido establecerá el primer Instituto de Seguridad de la IA del mundo.
El Reino Unido busca consolidar su posición como líder en el campo de la IA, a pesar de la competencia de Estados Unidos, China y la Unión Europea. El país europeo también anunció su compromiso de invertir 225 millones de euros en una nueva supercomputadora de IA llamada Isambard-AI, que se construirá en la Universidad de Bristol y se espera que sea diez veces más rápida que la máquina más rápida actual del país.
El presidente de los Estados Unidos, Joe Biden, recientemente firmó también una orden ejecutiva sobre IA, mientras que la UE está trabajando en sus propias directrices. A diferencia de la UE, el Reino Unido ha declarado que no planea adoptar nueva legislación para regular la IA, sino que confiará en los reguladores existentes.
Pero el camino de la regulación no ha sido fácil, y seguramente, no será tampoco corto. El emergimiento de tecnologías ha traído consigo múltiples discusiones en torno a la manera en la que se desarrollan y se distribuyen los diferentes desarrollos, sin embargo, todavía no es clara la manera en la que se regulará, de la mano de estrategias nacionales para cada país en su propio contexto. Sin embargo, el acuerdo como precedente histórico, marca la pauta para una regulación más palpable y próxima.