Hace unas semanas se publicó el AI Index 2023 de la Universidad de Standford, que analiza diferentes aspectos relativos a los avances de la Inteligencia Artificial, con una mirada comparativa de la Human-Centered Artificial Intelligence. Varios aspectos de esta publicación son dignos de mención. Entre ellos, el crecimiento en el número de incidentes y controversias relativas a la IA, que se ha multiplicado por 26 desde 2012, según datos del Algorithmic, y Automation Incidents and Controversies (AAIC).
Diversas investigaciones relativas, por ejemplo, a ChatGPT, también demuestran que los problemas relacionados con el uso de estos sistemas, ya sea por parte del sector privado o por parte de las autoridades, se hacen cada vez más evidentes y confirman las preocupaciones de varias organizaciones de derechos humanos dedicadas a estudiar la temática en los últimos años. Por otro lado, llama la atención el mapeo de importantes sistemas de aprendizaje automático atribuidos a investigadores de determinados países. Siguiendo la tendencia de años anteriores, en 2022 la gran mayoría de autores son de países del norte global, concretamente de Estados Unidos, algunos países europeos y China.
Destacamos un punto que amerita mayores consideraciones de los países latinoamericanos, en especial, la utilización de tratados de comercio digital para la regulación de inteligencia artificial, además de dispositivos que puedan impedir la transparencia del uso de varios sistemas de IA.
Tratados de comercio: la agenda digital sin consideraciones de derechos humanos
Diversos tratados de comercio tienen consecuencias para los entornos digitales, regulando aspectos en temas como el comercio electrónico, la protección del consumidor en línea y el establecimiento de estándares para la inteligencia artificial. El Acuerdo de Asociación de Economía Digital (DEPA), firmado por Chile, Nueva Zelanda y Singapur, contiene un capítulo específico sobre IA, obligando a los Estados a adoptar marcos éticos para la gobernanza de esta tecnología.
Pero estos tratados de comercio digital también pueden prohibir exigir transparencia de los algoritmos, impidiendo la divulgación del código fuente de los softwares de IA, lo que puede limitar las posibilidades para la búsqueda de soluciones a estos problemas, excluyendo la participación de autoridades judiciales o reguladoras. Así, por ejemplo, lo establece la propuesta de reglamentación sobre IA de la Unión Europea, presentada en 2021 y que todavía está en discusión.
Actualmente se han suscrito una serie de acuerdos comerciales bilaterales y multilaterales con compromisos para permitir el libre flujo de datos a través de las fronteras, fortalecer las leyes nacionales sobre secretos comerciales y aplicar estrictas protecciones de propiedad intelectual para el código fuente y los algoritmos inclusive, esto viene en forma de una nueva prohibición para que los gobiernos exijan el acceso o la transferencia del código fuente del software, sujeto a ciertas excepciones, y cuenta con el apoyo activo de EE. UU., Australia, Canadá, Japón y Nueva Zelanda.
Los esfuerzos por inyectar otra capa de protección para el software en el derecho comercial digital pueden ser muy problemáticos. La cláusula del código fuente ya puede resultar demasiado restrictiva para las políticas digitales nacionales. Al mismo tiempo, se ha avanzado mucho menos en abordar los riesgos y daños transfronterizos asociados con la IA, en áreas como la política de competencia, la protección de datos personales, las protecciones contra el uso abusivo de algoritmos en los mercados laborales y de consumo, y el uso respetuoso con los derechos humanos, de forma transparente y responsable.
Haciendo un análisis histórico, las disposiciones que prohíben los requisitos de divulgación del código fuente fueron introducidas por EE. UU. en las negociaciones del Acuerdo Transpacífico de Cooperación Económica (TPP) y desde entonces han sido emuladas en muchos otros acuerdos comerciales, aunque muchos países en desarrollo se oponen firmemente a ellas. El TPP impide a los estados suscriptores solicitar la transferencia o el acceso al código fuente de software. El código fuente es la especificación de un proceso computacional que puede ser compilado y ejecutado por una computadora. En contraste con el código fuente se encuentra el llamado “código objeto”, que es el que convierte el código fuente (legible por el ser humano) en instrucciones legibles por la máquina, mediante un proceso conocido como “compilación”. El código fuente de un programa informático puede estar protegido por propiedad intelectual y considerarse secreto comercial. De acuerdo con el artículo 10.1 del Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (ADPIC), de la OMC, los programas informáticos, tanto en código fuente como en código objeto, pueden protegerse mediante derechos de autor. Por lo anterior, estas disposiciones pueden amenazar el derecho de acceso a la información pública y, por tanto, el derecho a la libertad de expresión, según lo determinan la Constitución y las leyes de varios países latinoamericanos.
La transparencia, además de reforzar la confianza en las instituciones, constituye un derecho humano fundamental cuando se considera desde la perspectiva del acceso a la información. Este es un derecho consagrado en la Convención Americana sobre Derechos Humanos y, en el caso chileno, es una obligación del Estado prevista en la Constitución, en sus artículos 8 y 19 n. 14, en virtud del cual se presume pública toda la información que obre en poder de los órganos de la administración del estado y del principio de máxima transparencia o divulgación, expresamente definido en la ley de acceso a la información pública.
Pese a lo anterior, no se puede denegar la solicitud de acceso a información pública referida al código fuente de una aplicación estatal de reconocimiento facial, por ejemplo, en base a la supuesta vulneración de derechos de propiedad. La divulgación del código fuente de un software permite auditar su funcionamiento, participar en su mejora y controlar su seguridad, idoneidad y eficacia. Sin embargo, hay posiciones que lo consideran una forma de divulgación forzada de tecnología y como una barrera al comercio exterior. Así lo establecen los “Report on Foreign Trade Barriers” elaborados por EE. UU. en los años de 2022 y 2023, pero sin considerar los derechos humanos involucrados en estos casos.
El uso de la inteligencia artificial debe respetar los derechos humanos
Son cada vez más evidentes las consecuencias negativas de varios sistemas de IA, relativas a potenciales violaciones de derechos humanos y, particularmente, al incremento de la discriminación hacia grupos históricamente vulnerables, basado en sus ingresos, color de piel o género. El otro factor que llama atención en el reporte de AI Index 2023 es el aumento del interés de los formuladores de políticas en la Inteligencia Artificial, dado el creciente número de leyes y proyectos de ley que buscan regular el uso de la IA. En Brasil y Chile, actualmente existen diferentes propuestas normativas al respecto y una parte importante de estas discusiones es justamente sobre cómo brindar transparencia a la utilización de estos sistemas, para lo cual el acceso al código fuente y los algoritmos ciertamente tienen un rol fundamental.
Los estándares internacionales de la IA cubren sus usos y procesos, y es importante que reflejen los intereses públicos, en conformidad con los derechos humanos de las personas y los valores sociales. Sin embargo, el establecimiento de estándares está dominado por los principales actores de la industria y un número selecto de gobiernos del norte global. A las tecnologías de IA se les otorgan derechos de propiedad intelectual adicionales a través de acuerdos comerciales, incluidos los algoritmos y el código fuente, lo que presenta el riesgo de reforzar el poder de mercado de las empresas dominantes e impedir los avances hacia la transparencia algorítmica y la responsabilidad.