La responsabilidad en el desarrollo tecnológico

La apuesta sobre la responsabilidad de empresas tecnológicas, sociedad y gobiernos, debe tomar las riendas de la digitalización y hacer que la IA se centre a favor de las personas en una suerte de humanismo digital.
4 Enero, 2024
Imagen con IA
Imagen con IA

Un gran poder contiene una gran responsabilidad

Esta frase hace sentido cuando se toman decisiones que incumben no sólo a uno mismo sino a una colectividad. Cuando los seres humanos realizan tareas que requieren inteligencia, se les hace responsables del grado de precisión, fiabilidad y sensatez en sus decisiones; se les juzga por el efecto de sus acciones sobre otros seres humanos. Ese grado de exigencia ética y jurídica hay que aplicarlo también a los sofisticados sistemas de Inteligencia Artificial (IA) de los que hacemos uso en campos diversos como la salud, la educación, el transporte o la seguridad.

Aún con los adelantos técnicos de la cuarta Revolución Industrial, la humanidad se encuentra lejos de mitigar desigualdades sociales y desplegar sus potencias y capacidades para acceder a un desarrollo económico equitativo, que ubique lo humano y la dignidad de la persona como centro de todas las aplicaciones tecnológicas.

Pero entonces ¿cuál es el sentido del desarrollo tecnológico? El beneficio no tendría que estar centrado solamente ni en lo económico ni en el avance de su desarrollo, uso y comercialización; necesitamos una legitimación que mejore las condiciones de vida en la búsqueda de bienestar y progreso.

Y para ello tenemos que formular algunos principios morales o, cuando menos, ciertos criterios de actuación práctica como los que Isaac Asimov, con una capacidad de intuición visionaria insólita en 1950, año de la publicación de su famoso "I, robot", estampaba en dicha novela de ciencia–ficción:

  1. “Un robot no debe dañar a un ser humano o, por inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano
  3. Un robot debe proteger su propia existencia, hasta donde esa protección no entre en conflicto con la primera o segunda leyes.” (Asimov, 1950)

Y es aquí donde la responsabilidad debería ser la clave en todas sus dimensiones:

1. Responsabilidad del desarrollo: Los desarrolladores y creadores de sistemas de IA tienen la responsabilidad de diseñar y desarrollar tecnologías éticas, transparentes y confiables. Deben considerar los posibles impactos y riesgos éticos de sus creaciones y tomar medidas para minimizarlos.

2. Responsabilidad en la toma de decisiones: Los sistemas de IA pueden tomar decisiones que afectan a los individuos y a la sociedad. En ese sentido, es fundamental que los sistemas de IA sean capaces de explicar sus decisiones y acciones, y que se puedan responsabilizar por ellas. Esto es especialmente relevante en aplicaciones críticas, como la atención médica y la seguridad pública.

3. Responsabilidad en el uso de datos: Los datos utilizados para entrenar y alimentar los sistemas de IA pueden tener implicaciones éticas significativas. Los responsables deben asegurarse de que los datos utilizados sean representativos, no estén sesgados y cumplan con los principios de privacidad y protección de datos.

4. Responsabilidad en la mitigación de sesgos y discriminación: Los sistemas de IA pueden reflejar los sesgos existentes en los datos utilizados para entrenarlos, lo que puede llevar a resultados injustos o discriminatorios. Por lo tanto, es fundamental que los responsables de los sistemas de IA tomen medidas para mitigar estos sesgos y garantizar la equidad y la no discriminación.

5. Responsabilidad en la implementación y supervisión: Los usuarios y las organizaciones que implementan sistemas de IA tienen la responsabilidad de supervisar su funcionamiento y asegurarse de que se utilicen de manera ética y responsable. Esto implica establecer mecanismos de control, auditoría y rendición de cuentas para garantizar el cumplimiento de los principios éticos y la detección temprana de posibles problemas.

6. Responsabilidad legal y regulatoria: Los marcos legales y regulatorios desempeñan un papel fundamental en la responsabilidad en la IA. Los gobiernos y las instituciones tienen la responsabilidad de establecer marcos normativos claros y actualizados que aborden los aspectos éticos y responsables de la IA, así como de hacer cumplir dichas regulaciones.

7. Responsabilidad social y ética: La responsabilidad en la IA también recae en la sociedad en su conjunto. Todos los actores involucrados, desde los desarrolladores hasta los usuarios, tienen la responsabilidad de considerar el impacto social de la IA y trabajar hacia el beneficio común, promoviendo la equidad, la justicia y el bienestar general.

En conclusión, la apuesta sobre las dimensiones de responsabilidad por parte de las empresas tecnológicas, sociedad y gobiernos, tendrían que tomar las riendas de la digitalización y hacer que la IA se centre a favor de las personas y de la humanidad en una suerte de humanismo digital.

¿Hasta dónde regular la IA?

Desde el “White Paper” de la Comisión Europea sobre IA en el año en que inició la pandemia de COVID-19 (White Paper. On Artificial Intelligence, 2020) hasta la primera regulación de IA aprobada recientemente por el Parlamento Europeo, se incluyen una serie de compromisos como “la no maleficencia”: la tecnología debe aplicarse siempre sin voluntad de causar daño, la búsqueda de bien común, el consentimiento de los afectados, la imparcialidad de los algoritmos (no deben incluir ningún sesgo discriminatorio).

Las normativas de la legislación europea, pionera en regular la IA, entrarán en vigor hasta el año 2026, hasta ahora la Unión Europea (UE) sólo solicita a las empresas que sigan las reglas de manera voluntaria, sin sanciones en caso de incumplimiento. Estados Unidos (EU) seguramente aprovechará este periodo para implementar una normativa disruptiva, menos restrictiva que la europea.

Ante este panorama, empresas norteamericanas líderes en tecnología como Google, Hewlett-Packard (HP) o Microsoft han desarrollado en los últimos años sus propios protocolos y códigos morales internos basados en criterios de responsabilidad corporativa.

“Estos manuales de buenas prácticas tienen en común la voluntad de ir incluso más allá de los nuevos marcos legales que se están desarrollando en la Unión Europea, Estados Unidos y Gran Bretaña…todos parten de lo que podría salir mal si no nos ceñimos a una serie de directrices y principios rectores muy estrictos que, en primer lugar, nos obligan a plantearlos si una tecnología de este tipo es realmente necesaria y si sus beneficios potenciales superan con claridad a sus posibles riesgos.” (Echarri, 2021)

Pero no sólo las grandes empresas tecnológicas deberían estar interesadas por los códigos éticos, también debe ser prioridad de los gobiernos y sociedades garantizar que las máquinas permanezcan sujetas a la supervisión de las personas y que sus operadores se mantengan responsables de sus acciones.

Dos aspectos fundamentales para garantizar la confianza, la rendición de cuentas y la comprensión de los sistemas de IA son la transparencia y la explicabilidad. Los usuarios y las partes interesadas deben poder comprender cómo se toman las decisiones y cómo funciona el sistema de IA. La opacidad o la falta de explicación puede generar desconfianza y rechazo hacia la tecnología. Con relación a la rendición de cuentas, si los sistemas de IA pueden explicar cómo se llega a una determinada decisión, es posible identificar y abordar sesgos, errores o comportamientos indeseables. Esto es especialmente relevante en aplicaciones críticas, como la atención médica, donde la rendición de cuentas es esencial para garantizar la seguridad y la precisión.

Algunos retos para el 2024

Desafortunadamente no ha habido una adecuada responsabilidad en la toma de decisiones y por eso la variedad de dilemas éticos que han surgido por el desarrollo tecnológico. Esta preocupación provocó que en marzo del 2023 cientos de expertos en tecnología del Future of Life Institute, el mismo Elon Musk, profesores reconocidos en el tema y miembros de los laboratorios de AI Deep Mind (Future of Life, 2023), redactaron una carta en la que propusieron una moratoria sobre el uso de la IA por seis meses, hasta que se establecieran sistemas de seguridad con nuevas autoridades regulatorias y vigilancia. La carta sólo obtuvo 33,711 firmas.

Es cierto que no podemos ni queremos detener el desarrollo tecnológico. Las sociedades actuales tienen que reinventarse integrando nuevos paradigmas para incorporar la tecnología en sus vidas de una u otra manera. Para bien o para mal. “La inteligencia artificial es, en definitiva, un producto humano. Es más inteligente, sin duda alguna; si por inteligencia se entiende lo que va dicho. Pero, en cambio, tal vez nunca pueda resultar más lista. Si con esta categoría queremos referirnos a algo que no es sino patrimonio exclusivo de nuestra inteligencia sentiente.” (Fernández, 2021)


Referencias de interés

Asimov Isaac (1950) I, Robot, Penguin Random House, 2016.

Comisión Europea (20 de December de 2020). WHITE PAPER. On Artificial Intelligence – A European approach to excellence and trust. Obtenido de https://commission.europa.eu/publications/white-paper-artificial-intelligenceeuropean-approach-excellence-and-trust_en

Echarri Miquel, (2021) ¿Cuáles son los dilemas éticos del uso de la inteligencia artificial?, Entorno Seguro, El País, 2021-12-01. https://elpais.com/economia/entorno-seguro/2021-12-01/cuales-son-los-dilemaseticos-del-uso-de-la-inteligencia-artificial.html

Fernández -Fernández José Luis (2021), “Hacia el humanismo digital desde un denominador común para la Cíber Ética y la Ética en la Inteligencia Artificial” en Disputatio. Philosophical Research Bulletin, vol 10, no 17.

Future of Life, Pause Giant AI Experiments: An Open Letter (March 2023), https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Regulación de IA aprobada por la UE. https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificialintelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

 

Claudia Jiménez Claudia Jiménez Politóloga e Internacionalista en temas de cooperación internacional y derechos humanos en América Latina, con 20 años de experiencia en consultorías nacionales y gobierno. Profesora universitaria y conferencista. Desarrolladora de cursos y proyectos de tecnología y ética para la academia y empresas. Catedrática de la Escuela de Ciencias Sociales y Gobierno, y de Estudios Humanísticos y Educación del Tecnológico de Monterrey. Pionera en Inteligencia Artificial en educación.