Los Derechos Humanos, una asignatura pendiente para la Inteligencia Artificial

Este pasado lunes Bill Gates abrió, con el discurso inaugural, la conferencia para la creación del Stanford Institute for Human-Centered Artificial Intelligence (HAI), una institución que ha reunido a más de 200 expertos multidisciplinares, con el objetivo de crear un futuro responsable.
Los avances tecnológicos, el desarrollo industrial y el crecimiento cibernético forman parte del presente. Las teorías, libros, películas y cómics tenían razón, de algún modo y no, no estamos preparados para esta vorágine.
La Real Academia Española define la Inteligencia Artificial (IA) como la“disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”.
La IA está presente en todos los sectores en las sociedades desarrolladas: alimentación, domótica, sanidad, educación, infraestructuras, medio ambiente, eficiencia energética, justicia, seguridad pública y privada, ocio, transporte, industria, finanzas, y un largo etcétera.
Se propaga al mismo tiempo que lo hace Internet, acercando los avances tecnológicos a sociedades –desarrolladas y en vías de desarrollo- actuales. Entonces, ¿podría ser una ventana de oportunidades para países con mayores deficiencias en los sectores anteriormente citados?
La IA, en este sentido, puede dar respuesta urgente a necesidades primarias. Por otro lado, las máquinas operan donde el humano no debe, no puede o no quiere, es decir, en trabajos peligrosos, tediosos o muy minuciosos.
Sin embargo, la recopilación de voces pesimistas es mayor. El cambio del paradigma social, económico y político mundial por este fenómeno disruptivo, hace que algunos derechos humanos pueden verse mermados por el impacto de la IA.
En cuanto al derecho a la libertad de expresión y de ser informado, el sesgo puede verse materializado, como indican A.Bekkoenova e I.Tschan en la desinformación a través de la personalización de contenido para el consumidor. Gracias a las cookies, se muestran al cibernauta noticias y referencias próximas a éste sin dejar lugar a fuentes de información más alejadas de sus preferencias iniciales.
Además, como indica Sherif Elsayed-Ali, la discriminación a “comunidades marginadas” podría verse incrementada gracias a la IA, ya que el aprendizaje automático programado de serie para las máquinas puede agravar una desigualdad en el acceso a la información.
¿En qué factores sociales, políticos o económicos estaría basada esta programación si es una tecnología diseñada para ser global? ¿Cómo y quiénes pueden programar el aprendizaje automático? Si existiera un control estatal de estos sistemas de IA, el derecho a la libertad de expresión por parte del individuo podría quedar mermada por la discrecionalidad de gobiernos que quisieran, por ejemplo, cortar el suministro de una máquina o de Internet.
En otro orden de cosas, se encuentra el derecho a la protección y privacidad de los datos del usuario: en la actualidad nos encontramos ante multiplicidad de asistentes cibernéticos las 24 horas del día, los 7 días de la semana a nuestra disposición: Apple tiene a Siri; Amazon tiene a Alexa, Microsoft a Cortana y Google, también, con un simple golpe de voz a la orden de “Ok, Google”. Todo ello sin hablar de las redes sociales; eso es un capítulo aparte.
La cantidad ingente de datos que estos sistemas, aparentemente inofensivos, pueden almacenar pueden vulnerar gravemente los derechos de los individuos: habría que estudiar caso a caso si se cumple, por ejemplo, el Reglamento General de Protección de Datos (RGPD) en esta transacción de información.
En esta cuarta revolución industrial existe una gran preocupación por la posible pérdida masiva de empleos por el cambio de máquinas por trabajadores. Sin embargo, existen teorías optimistas que hablan de un aumento del tiempo de ocioo de una bajada de precios aparejada.
Por tanto, se abre un nuevo debate ético y por ende, jurídico, difícil de abordar. ¿Y si la sofisticada tecnología se empleara para la creación de armas inteligentes? El coronel Gómez de Ágreda[1]indica que la IA puede ser utilizada en la mayoría de las operaciones tanto en el nivel “estratégico” como en el “táctico”. La aleatoriedad de la utilización de las máquinas para librar una guerra, ya sea en el término figurado o el literal, aterra. Si, bajo pretexto subjetivo – si es que existe el objetivo– se utilizaran robots para provocar el daño a otro ser humano, entonces las “tres leyes de la robótica” de Isaac Asimov perderían su sentido.
Es necesario establecer un marco normativo extensible supranacionalmente para garantizar la seguridad de los individuos, ya que la toma de decisiones de robots puede estar sujeta a discrecionalidad –establecida en su programación-. Por ello, lo más correcto sería que las últimas decisiones en razón en seguridad humana estuvieran en manos de expertos frente a máquinas. Pero, ¿quiénes y cómo?
Como indica el Letrado Moisés Barrionos encontramos ante la dificultad de la regulación del denominado “Derecho de los robots”. ¿Cómo redactarlo, por quiénes y de qué manera legitimar la obligatoriedad para los actores involucrados? Se antoja complicado un diálogo a una sola voz en el seno de organizaciones supranacionales en cualquier materia por lo que, para este asunto, la solución parece una utopía. Pero debe encontrarse la manera de redactar una legislación completa, actualizada y que respete tanto el desarrollo tecnológico – y empresarial- como la seguridad humana, de inmediato.
Son varias las décadas que, desde la Academia, el sector público o el sector privado, se viene estudiando cómo abordarlo. Por un lado, en el sector público destacan algunos países como Estados Unidos, Canadá, Corea del Sur, Japón, Reino Unido o Singapur, que ya han tomado sus propias iniciativasen la materia.
Además, se han de tener en cuenta algunas normativas internacionales en cuestión de Derechos Humanos que tendrán relación directa o indirecta con la Inteligencia Artificial:
- La Declaración Universal de los Derechos Humanos (DUDH), adoptada el 10 de diciembre de 1948 en París.
- La Comisión Europea para la Eficiencia de la Justicia (CEPEJ), creada en 2002 por el Consejo de Europa.
- Los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos, aprobado en 2011 por consenso en el Consejo de DDHH de las NNUU.
- El Reglamento General de Protección de Datos (RGPD)que entró en vigor el 25 de mayo de 2016.
- El Informe Mary Delvaux, aprobado en enero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica.
- Resolución del Parlamento Europeodel 16 de febrero de 2017, para la creación de una Agencia Europea de Robótica e Inteligencia Artificial y un interruptor capaz de desconectar máquinas en caso de emergencia.
- La más relevante a día de hoy es la Declaración de Toronto de mayo de 2018 que aglutinó organizaciones como Amnistía Internacional, Access Now, la Fundación Wikipedia o el Observatorio Internacional para los Derechos Humanos. Se fundamenta sobre tres pilares: la responsabilidad estatal y privada bajo un protocolo común de buenas prácticas y transparencia.
Por otro lado, desde el sector privado son numerosas las propuestas en este sentido: las empresas de redes sociales, búsquedas y finanzas están especialmente preocupadas por el asunto:
Facebook desarrolló el Facebook Artifical Intelligence Research (FAIR)destinado al estudio de la IA en un foro donde participan otras empresas como IBM, Amazon, Microsoft o Google. Este último firmó en junio de 2018 un documento de buenas prácticas en esta materia que asegurara la responsabilidad de mejorar la operatividad del cliente a través del avance de su tecnología. ¿Su fin? Facilitar la comodidad del cliente, inmediatez y disminuir la brecha digital. Microsoft, por su parte, pone el acento de su ética empresarial en la protección de la privacidad de datos en el cliente, así como una mejora en la accesibilidad a sus aplicaciones cibernéticas.
En el mundo de las finanzas españolas, OpenMind y BBVAorganizaron hace algo menos de un mes un evento en Bruselas para tratar la cuestión de los Derechos Humanos y la Inteligencia Artificial.
En definitiva, tenemos que ser rápidos y eficaces en la materialización de un cuadro normativo, de una toma conjunta de decisiones público-privada para la regulación y sanción asociada a la IA. No es el futuro, es el presente e, incluso, el pasado.
No solo es recomendable evitar engrandecer la brecha Norte-Sur existente, sino que resulta más necesario que nunca la concienciación de los consumidores y de los desarrolladores de esta tecnología. Es necesario el diálogo y la búsqueda de una ética para la defensa de los Derechos Humanos en esta nueva relación máquina-humano.
[1]GÓMEZ DE ÁGREDA, Ángel. Mundo Orwell. Manual de supervivencia para un mundo hiperconectado, Ariel, 2019, ISBN 978- 8434429789, publicado el 5 de marzo de 2019.