Nosotros, las organizaciones de la sociedad civil abajo firmantes, damos la bienvenida a la resolución de la Asamblea General de las Naciones Unidas (ONU) liderada por los Estados Unidos “Aprovechar las oportunidades de sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”.
Las partes interesadas alejadas de los terrenos de la ONU se benefician cuando los Estados aclaran su posición sobre las tecnologías nuevas y emergentes y cómo el derecho internacional, incluido el derecho internacional de los derechos humanos, y los compromisos de desarrollo sostenible se aplican a campos como la inteligencia artificial. Esto es especialmente cierto con toda la exageración, las definiciones turbias y los impulsores egoístas que rodean la inteligencia artificial.
Elogiamos fuertemente el lenguaje operativo de la resolución que llama a los estados, y lo que es más importante, a otras partes interesadas, a “abstenerse o cesar el uso de sistemas de inteligencia artificial que sean imposibles de operar de conformidad con el derecho internacional de los derechos humanos o que representen riesgos indebidos para el disfrute de derechos humanos, especialmente de quienes se encuentran en situaciones vulnerables”.
La sociedad civil señala que ese tipo de mensajes ha sido “una batalla cuesta arriba” y, por lo tanto, esta resolución unánime debe verse como un paso positivo en la dirección correcta. Instamos a los estados a poner en práctica dicha recomendación y a prestar atención a este llamado de consenso en las próximas negociaciones, particularmente en el Pacto Digital Global (GDC) de las Naciones Unidas, donde la semana pasada se publicó el borrador cero, con el objetivo de fomentar la cooperación digital y mejorar la gobernanza de tecnologías emergentes, incluida la inteligencia artificial, y otras iniciativas de establecimiento de estándares. Además, instamos a los estados a que impulsen dichos llamados para incluir prohibiciones de ciertas tecnologías, incluidas las llamadas tecnologías de reconocimiento de emociones y detección de género, que no respetan la dignidad humana y, en cambio, infringen los derechos humanos, intencionadamente.
Nos complace ver que en todo el texto se hacía referencia consistente al lenguaje relacionado con la inteligencia artificial confiable y los derechos humanos. La larga lista de medidas técnicas, regulatorias y educativas promovidas ofrece un menú útil de opciones para los estados y las empresas mientras claman por formas de prevenir daños a lo largo del ciclo de vida de los sistemas de inteligencia artificial, que van desde las evaluaciones de riesgos e impactos en la etapa de diseño hasta las posteriores. Mecanismos de retroalimentación del despliegue. Además, para su implementación práctica se debe seguir fomentando el reconocimiento de la necesidad de involucrar y permitir la participación de todas las comunidades, particularmente de los países en desarrollo.
No obstante, existen preocupaciones con la resolución:
-En primer lugar, los párrafos que piden cerrar la brecha digital simplemente se formulan como si exigieran “asociaciones más fuertes”, cuando son urgentes mayores compromisos, incluso en relación con la financiación. Las convocatorias y los detalles para su implementación serán clave. Lamentablemente, los detalles no se detallan en la resolución y actualmente no se abordan en el informe provisional del Órgano Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.
– En segundo lugar, estamos profundamente preocupados por cómo la resolución diferencia entre los ámbitos militar y no militar/civil por varias razones: (1) las exenciones generales militares/de seguridad nacional no son consistentes con el derecho internacional; (2) el lenguaje que rodea a la inteligencia artificial segura, confiable, protegida, etc. debería aplicarse a las aplicaciones militares tanto, si no más, como a los usos civiles; y (3) no existe un estándar para las diferencias, especialmente para los sistemas de IA de doble uso. Esto no es hipotético: la UE. La Ley de IA crea lagunas peligrosas para el uso de la IA por parte de las autoridades policiales, de control migratorio y de seguridad nacional, y la ONU necesita establecer estándares más altos.
– En tercer lugar, el marco de gobernanza de la IA propuesto no refleja un verdadero modelo de múltiples partes interesadas y podría ser más sólido cuando se trata de una participación significativa y la inclusión, particularmente de la sociedad civil, los grupos vulnerables y marginados, las comunidades locales e indígenas que participan en decisiones relacionadas con la IA que los afectan. Por ejemplo, el párrafo dispositivo seis utiliza un lenguaje que protege contra el llamado a una participación “inclusiva y equitativa”.
– En cuarto lugar, la resolución se hace eco de otras conversaciones globales sobre inteligencia artificial al apoyarse en gran medida en el tecno-solucionismo para abordar los Objetivos de Desarrollo Sostenible (ODS) de la ONU en situaciones donde la falta de voluntad política y cooperación son las verdaderas barreras para el progreso. Sin una cooperación global sostenida y poderosa para abordar desafíos como el cambio climático, la inteligencia artificial no puede lograr los objetivos establecidos en la resolución.
– Finalmente, si bien la resolución se centra en el impacto de algunas tecnologías de IA para el progreso socioeconómico y ambiental hacia el cumplimiento de los ODS, lamentablemente no incluye suficientemente otra dimensión integral de la Agenda 2030 para el Desarrollo Sostenible, a saber, la protección de los derechos humanos. Si bien las implicaciones para los derechos humanos se mencionan brevemente en otras secciones, es crucial que se enfaticen en relación con los ODS.
El desafío de las futuras negociaciones sobre la gobernanza de la IA será promover el desarrollo sostenible junto con una transformación digital que respete los derechos, sin dejar de ser diligentes en afirmar la centralidad de los derechos humanos y la seguridad, normas que todos los Estados han acordado defender. Alentamos a los estados a trabajar con la sociedad civil y otras partes interesadas para desarrollar una resolución sobre IA en el contexto del sistema de derechos humanos de la ONU, que complemente este texto centrado en el desarrollo sostenible. Además, la resolución no se desarrolló en los procesos habituales de colaboración y basados en comités de la Asamblea General, sino únicamente en el plenario; Recomendamos encarecidamente que cualquier versión futura de esta resolución se aparte de este enfoque individual.
Será necesario asumir compromisos respecto de la rendición de cuentas de las empresas privadas que operan a nivel global y, a menudo, evaden la responsabilidad en ciertos países. También serán necesarios estándares y mecanismos adicionales para impedir la circulación de tecnología que no cumpla con los derechos humanos. Las consideraciones laborales y ambientales deberían ser una parte clave de tales esfuerzos y de la evaluación del cumplimiento por parte de dichos actores empresariales.
La sociedad civil señala que, si bien la resolución no es vinculante y no incluye un mecanismo de aplicación, es digna de mención por ayudar a avanzar al proporcionar una adopción unánime que los estados pueden utilizar para trabajar hacia el establecimiento de barreras globales para la inteligencia artificial. Por lo tanto, hacemos un llamado a todas las partes interesadas, en particular a los Estados, a utilizar esta resolución junto con otras resoluciones relevantes e iniciativas de la ONU, que se centren particularmente en los impactos de la inteligencia artificial en los derechos humanos en las próximas discusiones, especialmente las negociaciones relacionadas con el GDC de la ONU. Un buen punto de partida es consultar los recursos existentes de la ONU, incluidos: 1) las recomendaciones de los Relatores Especiales de la ONU que se han centrado en las implicaciones de la inteligencia artificial para los derechos humanos desde sus respectivos mandatos; (2) resoluciones como la “Promoción y protección de los derechos humanos en el contexto de las tecnologías digitales” , que se introdujo por primera vez a finales del año pasado, y la resolución bianual “Derecho a la privacidad en la era digital”; y (3) el trabajo en curso del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, incluidas sus declaraciones sobre la IA generativa en el contexto de su visita a Silicon Valley y en la Oficina del Alto Comisionado para los Derechos Humanos B-Tech Generative AI and Human Rights Summit y el trabajo continuo del proyecto de IA generativa B-Tech.
Firmantes:
Access Now
Article 19
Association for Progressive Communications
Derechos Digitales
Digital Action
European Center for Not-For-Profit Law Stichting
Global Partners Digital
International Center for Not-for-Profit Law
Privacy International