Inteligencia Artificial: riesgos y prevención en materia de derechos humanos

Por  Enrique Guadarrama López

Sumario: 1. Creatividad e innovación; 2. Revolución digital e inteligencia artificial (IA); 3. Inteligencia natural IN) e inteligencia artificial IA); 4. IA: riesgos para los derechos humanos; 5. Parámetros mínimos en la regulación de la IA; 6. La Ley de Inteligencia Artificial de la Unión Europea; 7. El Acuerdo de la ONU sobre IA. Conclusiones

1. Creatividad e innovación

El 21 de abril se conmemora el Día Mundial de la Creatividad y la Innovación, dos facetas del quehacer humano con gran impacto en el desarrollo de un país.

La creatividad implica la capacidad de una persona o grupo de personas de producir ideas novedosas u originales sobre una rama del conocimiento o respecto de cualquier actividad, incluyendo las de esparcimiento y recreación. Asimismo, representa la capacidad de establecer conexiones distintas y diferentes a ideas previamente expuestas o desarrolladas, para la resolución de problemas determinados.

La innovación implica la aplicación práctica y concreta de la creatividad, esto es, la implementación, en la realidad, de las ideas novedosas para generar o modificar bienes, productos, servicios o procedimientos.

Sin duda, la evolución de la humanidad se sustenta, mayormente, en la creatividad e innovación. Algunas etapas de la historia universal se identifican con la irrupción en cadena de diversos inventos; es lo que se conoce como la revolución industrial. La invención de la máquina de vapor y su aplicación en diversas áreas del comercio y la industria dio lugar a nuevos medios de transporte (la locomotora) y la mejora de otros ya existentes (barco de vapor que paulatinamente desplazó al de vela).

Durante los siglos XIX y XX, las invenciones, los descubrimientos y las aplicaciones científicas a la industria se multiplicaron en Europa y Estados Unidos. Y luego se expandieron en el mundo. Irrumpieron en la vida humana el automóvil, la bombilla eléctrica, los electrodomésticos, las computadoras, los satélites espaciales, los teléfonos móviles, el internet, las redes sociales y un largo etcétera.

2. Revolución digital e inteligencia artificial (IA)

Ante la aparición y aplicación de un nuevo producto o invento en la vida cotidiana de las personas, no sólo se genera asombro, sino cuestionamientos sobre lo que puede acarrear como consecuencias o efectos colaterales. Así, por ejemplo, al aparecer el libro electrónico se señaló que la industria editorial iría a la baja. No ocurrió. O cuando aparecieron las películas en DVD y ahora la exhibición de películas en las plataformas digitales, la industria cinematográfica se puso a temblar. No pasó nada, la gente, sin problema, sigue acudiendo al cine (no ha dejado de ser una distracción universal).

Actualmente, somos parte activa de una revolución digital caracterizada por un desarrollo tecnológico acelerado. La emergencia sanitaria provocada por la pandemia de COVID-19, que inició en 2020 e impuso el confinamiento global y la paralización de las actividades presenciales, fue el detonante de la actual transformación tecnológica. Tanto el gobierno, como las empresas, los centros educativos y las familias se vieron impelidas a buscar y aplicar nuevas modalidades en la tecnología que involucraron el uso generalizado de aplicaciones informáticas (comercio electrónico), de plataformas de streaming para reuniones virtuales, de software para coordinar el home office, entre otras herramientas informáticas.

En este contexto, a inicios de 2023 irrumpieron los sistemas de Inteligencia Artificial (IA), con el lanzamiento al mercado de Chat GPT, Bing, Midjourney, DALL-E y Adobe Firefly, entre otros productos, a cargo de empresas desarrolladoras de software. De nuevo hubo y sigue habiendo conmoción general en el público. Pero ahora, la alerta no deriva de la posible incidencia negativa en alguna industria en particular, sino en la protección de los derechos humanos. Ahora el riesgo se cierne sobre todas las personas. Todos estamos expuestos.

3. Inteligencia natural IN) e inteligencia artificial IA)

Voy a partir de lo básico e irrebatible: la inteligencia natural (IN) creó, y viene desarrollando cada vez más, a la inteligencia artificial. La inteligencia artificial no puede estar por encima de la inteligencia natural ni la debe sustituir, ni menos desplazar. Esta premisa elemental no puede ser pasada por alto por quienes se dedican a generar productos y programas de IA. Aquí emergen las empresas, que son las responsables de producirla y las que materialmente buscan nuevas vertientes y fórmulas de aplicación de la IA.

Tengo una pregunta inicial, que condiciona el análisis: ¿la IA nos hace más inteligentes? El sentido común, pero también científico, lleva a responder con un NO contundente, pues la IA, en principio, sólo busca facilitar o hacer más llevadera la vida cotidiana de las personas y hacer más productivas a las empresas.

Ahora sumo un tercer aspecto de reflexión: con la aplicación práctica de la IA, se presentan zonas de riesgo para las personas en lo individual, en lo familiar, en lo colectivo o social. Esto conduce a un obligado control por parte del Estado, que debe ir más allá de medidas preventivas y éticas. Además, se hace necesaria la participación de la sociedad civil. 

Si bien, en estos tiempos la IA está en boca de todos, su aparición se remonta décadas atrás, a finales de la II Guerra Mundial, cuando el teórico matemático Alan Turing diseñó el test para responder a la pregunta “¿pueden pensar las máquinas?”. Acuñado en 1956 por el informático Jonh McCarthy, el concepto hace referencia al conjunto de capacidades cognitivas expresadas por sistemas informáticos o combinaciones de algoritmos con el objetivo de crear “máquinas” (programas de cómputo) que imiten las facultades de la inteligencia humana en la realización de tareas, resolución de problemas y toma de decisiones, y que además puedan ejecutar procesos de mejora y aprendizaje automáticos conforme recopilen información (machine learning). Es decir, con la IA se busca que los algoritmos informáticos logren asimilarse a las personas para enfrentar problemas de la realidad cotidiana con soluciones derivadas de la conjugación de los propios algoritmos.

4. IA: riesgos para los derechos humanos

La IA se debe ver y analizar como dos caras de la misma moneda, la de ser un gran coadyuvante para la mejoría de muchas de las actividades humanas, pero también provocadora de grandes problemas. Lo bueno y lo malo. No se puede ocultar esa dualidad y ambivalencia, pues, así como la mayoría de las personas están conformes con determinadas aplicaciones en los celulares, también se sabe que se presentan esquemas de espionaje (por parte del gobierno o de particulares), o de preparación de armamento más letal (bombas inteligentes, drones sin tripulación). Aquí, es donde debemos poner la alerta para saber quién o quiénes están detrás del desarrollo de la IA.

No se trata de satanizar la IA per se, ni de impedir su avance a favor de la sociedad, sino determinar y acotar responsabilidades y generar conciencia de lo dañino que puede resultar para la humanidad. No es nada sencillo. No se puede culpar sólo a las empresas desarrolladoras, sino identificar a las personas físicas que solicitan esos productos tecnológicos, sean particulares o gobernantes.

Hoy en día se busca que haya programas informáticos que equiparen a la IA con una persona, en sus gustos, fobias, reacciones. Hay que abrir los ojos y no permitir que se rompa la premisa básica inicial, que la IA no es un sustituto de la IN. No debe haber pretensión, ni manera de hacerlo, de elevar o incrementar una cuestión inherente al ser humano.

En realidad, se debe mantener el propósito original de los creadores, promotores y ejecutores de la IA: la productividad en su más amplia expresión, que abarca ahorro de tiempo, de recursos, de trámites, de esfuerzos y de mejoría en las actividades humanas.

Otro elemento para el análisis: estamos frente a la que denomino masificación tecnológica de la humanidad, que se caracteriza por vivir a expensas de la tecnología. Nadie se escapa. Comprende a todas las personas, sin distinción de género, raza, religión, territorio, condición social, edad, grado de escolaridad, lugar de residencia, país o región. Aquellas personas que no se ven inmersos en la corriente de la tecnología, sea que de manera consciente trata de evitarlo o por dificultades personales para lograrlo (personas de edad mayor), se les puede identificar que están en situación de analfabetismo informático. Hasta allá hemos llegado.

La situación se complica cuando reflexionamos sobre quienes detentan este poderío material sobre el comportamiento de las personas. Estamos frente a una dictadura digital, pues todos somos identificados no como persona sino como un número dentro de los algoritmos de la IA.

Así como la IA tiene un extraordinario potencial para mejorar la calidad de vida de las personas, los peligros y riesgos que trae consigo también son de gran envergadura, por lo que su desarrollo y aplicación responsable debe analizarse a la luz de los problemas éticos y legales que plantea, particularmente en los derechos humanos que podrían ser vulnerados. Los expertos han identificado algunos de estos riesgos:

  1. El uso de la IA para la vigilancia de los individuos por parte de agentes estatales, del sector privado e incluso de la delincuencia organizada, lo que implicaría una violación del derecho a la intimidad y a la vida privada de las personas, conllevando además otros riesgos como el intento de control masivo de la población por parte del gobierno.
  2. El funcionamiento sesgado de los sistemas de algoritmos de la IA que puede contribuir a la discriminación y exclusión de determinados grupos de población, así como a la reproducción de desigualdades existentes en materias como acceso al crédito, la vivienda y la justicia penal.
  3. El desempleo masivo de trabajadores y empleados al desaparecer puestos de trabajo, en virtud de la automatización impulsada por la IA. Esto, podría provocar el aumento de los índices de pobreza y socavar derechos económicos, sociales y culturales.
  4. La producción y difusión masiva de noticias falsas, así como la proliferación de campañas “negras” o “sucias” con fines de manipulación de la opinión pública, lo que pudiera influir negativamente en procesos electorales en curso, dañar el derecho de acceso a la información y deteriorar la vida democrática.
  5. La producción de armas más letales como los drones no tripulados y los llamados “robots asesinos”, máquinas que al ser dotadas de capacidad de decidir sus objetivos de ataque podrían cometer crímenes de guerra o de lesa humanidad.
  6. Una severa limitación de la autonomía y de las libertades humanas al ejercer una influencia capaz de determinar por completo el comportamiento humano, condicionando la facultad electiva de las personas y generando entornos con opciones estrictamente limitadas.

Ante este panorama, entre la opinión pública hay consenso acerca de que la IA debe ser limitada y regulada a fin de prevenir, sancionar y erradicar posibles usos indebidos. Esa corriente de pensamiento ha venido avanzando fuertemente.

En ese sentido, la Unión Europea (UE) y la Organización de las Naciones Unidas (ONU) han dado los primeros pasos para establecer un marco regulatorio consistente que permita orientar el desarrollo de la IA de manera confiable y seguras para los ciudadanos y la población en general.

5. Parámetros mínimos en la regulación de la IA

Cualquier texto normativo debe contener 5 apartados mínimos: sujetos obligados; conductas sancionables; catalogo de sanciones; autoridades competentes para investigar y sancionar; procedimiento de investigación. Además, se debe tener claramente identificado los intereses jurídicos en juego.

En el caso de la regulación de la IA, es claro que el interés prioritario es la protección adecuada y eficiente de los derechos humanos de la población en general. En el otro extremo de interés están las empresas desarrolladoras de la IA. Es claro que los límites a la actuación de las empresas lo son los derechos humanos. Estos entendidos en su connotación más amplia (protección de todas las personas en general). Considero que ante los riegos señalados (mayor producción de productos y armas cada vez más letales o ante la abierta búsqueda de suplantación de personas), se debe considerar que el fin supremo de la regulación sea la protección de la humanidad, es decir, que los productos que se generen no atenten contra la humanidad, so riesgo de equiparar a delitos de lesa humanidad. Sobre esto se debe profundizar.

El camino de los derechos humanos es la vía para lograr lo que considero la clave: alcanzar un obligado equilibrio entre el inevitable y vertiginoso desarrollo tecnológico y el respeto a la dignidad y humanismo de las personas. Es ineludible hacer realidad la que califico la ecuación fundamental, en materia de IA: avance de la tecnología + respeto a los derechos humanos = desarrollo armónico y humanista de la humanidad.

6. La Ley de Inteligencia Artificial de la Unión Europea

El 13 de marzo de 2024, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial de la Unión Europea (Ley de IA), primera legislación vinculante en el mundo. La propuesta la realizó la Comisión Europea desde abril de 2021. Fue acordada por los legisladores de la UE en diciembre de 2023. Se trata del Reglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) 

La Ley de IA establece un marco común para el uso y suministro de sistemas de IA en toda la UE. Establece una clasificación para sistemas de IA basado en criterios de riesgos”: riesgos inaceptables, de alto riesgo, de riesgo limitado y de riesgo mínimo.

Los distintos niveles de riesgo implican mayores o menores requisitos y obligaciones. Así, los sistemas que presenten riesgos inaceptables están prohibidos. Aquellos sistemas de IA de alto riesgo (por sus posibles impactos perniciosos en la salud, seguridad o derechos fundamentales de las personas) deben cumplir con una serie de requisitos y obligaciones para poder ser comercializados en la UE. Los sistemas de IA con riesgos limitados estarán sujetos a requisitos de información y transparencia. Finalmente, los sistemas de IA con riesgos mínimos no están sometidos a obligaciones adicionales.

El Reglamento también incorpora reglas específicas para los modelos de IA general (que pretenden emular en su totalidad la mente humana) y aquellos con “capacidades de alto impacto” por suponer riesgos sistémicos y plantear impactos significativos en el mercado interior.

La Ley de IA de la UE no esté exenta de críticas. Mher Hakobyan, asesor de Amnistía Internacional, señaló que “la legislación no contiene principios básicos de derechos humanos” y que le resultaba decepcionante “que la UE y sus 27 Estados miembros hayan decidido dar prioridad al interés de la industria y de los organismos encargados de hacer cumplir la ley por encima de proteger a las personas y sus derechos humanos”. También criticó la falta de prohibición del “uso temerario” ni de “la exportación de tecnologías draconianas”. Su conclusión es lapidaria en el sentido de que los países no pertenecientes a la UE podían aprender de “la incapacidad de la Unión para regular adecuadamente las tecnologías de IA” y no “ceder a las presiones de la industria tecnológica y de las autoridades” encargadas de aplicar la ley.

Por mi parte, considero que el referente para regular a las empresas desarrolladoras de la IA deben ser los Principios Rectores de la ONU, en materia de empresas y derechos humanos, cuyo principio general es “todas las empresas, todos los derechos humanos”, es decir, ninguna empresa queda exenta de cumplir con los estándares internacionales de respeto y protección de los derechos humanos de todas las personas, en todo el mundo. Aquí los expertos en empresas y derechos humanos tienen la palabra.

Es preciso que las empresas cumplan con las cuatro condiciones establecidos en los Principios Rectores aludidos para considerar que una empresa respeta derechos humanos: cumplimiento de la ley, compromiso corporativo por los derechos humanos, debida diligencia empresarial en derechos humanos y contar con mecanismos de reparación de daños ante violaciones a derechos humanos derivadas o relacionadas con sus actividades empresariales.

No parece que la Ley de IA de la UE haya tomado en consideración los Principios Rectores de la ONU, lo cual acarrea una deficiencia, particularmente en materia de debida diligencia empresarial y en los mecanismos de reparación en caso de violación a derechos humanos de las personas, en lo individual o como parte de una colectividad.

7. El Acuerdo de la ONU sobre IA

En el mismo tenor, el 21 de marzo del presente año la Asamblea General de las Naciones Unidas adoptó “por aclamación” una resolución que llama a promover sistemas de inteligencia artificial “seguros y fiables” que beneficien el desarrollo sostenible. Si bien en 2021 ya se había logrado un Acuerdo que definió un marco ético común para el uso de la IA, esta resolución es la primera orientada a regular este campo tecnológico emergente. El proyecto fue encabezado por Estados Unidos y “copatrocinado” por más de 120 Estados miembros.

En el texto se destaca el llamado a respetar, proteger y promover los derechos humanos en el diseño, desarrollo, despliegue y uso de los sistemas de IA, pues las personas tienen “en línea” los mismos derechos que tienen “fuera de línea”. Por ello, la Asamblea llamó a todos los Estados miembros y demás partes interesadas a que usen la IA con un estricto apego a los estándares internacionales de derechos humanos, evitando riesgos indebidos para su disfrute.

También reconoció las diferencias de desarrollo tecnológico entre países y dentro de ellos, instando a los Estados miembros y partes interesadas a acciones de cooperación para cerrar las brechas digitales y aumentar la alfabetización digital. La representante de Estados Unidos en la ONU destacó que, con la adopción de dicha resolución, la comunidad consiguió establecer un fundamento más para construir un pacto digital global y un sistema de gobernanza de esta tecnología que ponga en el centro la humanidad y la dignidad de la persona.

Conclusiones

A) Ante una realidad mundial marcada por una revolución digital en curso y un desarrollo tecnológico acelerado, las oportunidades, desafíos y riesgos que conlleva la creación de sistemas de IA hacen impostergable su regulación.

B) La aprobación de la Ley de Inteligencia Artificial de la Unión Europea y el Acuerdo de la ONU sobre IA representan un avance significativo en el control de esta tecnología emergente a nivel global, aunque el enfoque de la primera se hace desde la perspectiva de las empresas, más que de los derechos humanos de las personas.

C) Lo cierto es que hay un consenso creciente sobre la necesidad de establecer marcos normativos adecuados y eficientes que protejan los derechos humanos y promuevan un uso ético y responsable de la IA.

D) Hay que insistir en la que califico la ecuación fundamental, en materia de IA: avance de la tecnología + respeto a los derechos humanos = desarrollo armónico y humanista de la humanidad.

* Agradezco el apoyo de Mario Naranjo Ricoy en la elaboración del presente trabajo.