Herramientas para monitoreo de IA

Informes, índices y estudios: ¿qué sabemos realmente sobre el uso de IA en América Latina?

El avance de las tecnologías basadas en inteligencia artificial, incluida América Latina, ha venido acompañado de iniciativas de monitoreo y de análisis, en algunos casos con útiles herramientas para establecer su impacto desde una perspectiva de derechos humanos.

El desarrollo de nuevas tecnologías basadas en Inteligencia Artificial muestra un avance vertiginoso en distintas partes del mundo. Solo en 2022, según el último reporte publicado por el Instituto de Inteligencia Artificial de Stanford, fueron presentadas más de 62 mil patentes a nivel global, lo que representa un incremento de 62,7% respecto de 2021.

Estas tecnologías comenzaron a ser implementadas en las redes sociales que usamos, son la base de las recomendaciones que recibimos en los servicios de streaming, e incluso comenzaron a inmiscuirse en las agendas de uno de los servicios de mensajería más utilizados en América Latina, como un nuevo contacto con el que dialogar. Pero el sector privado no es el único en implementar estas tecnologías. Desde el sector público comenzó a implementarse en áreas tan disímiles como la seguridad, la intermediación laboral, la prevención de la deserción escolar, la gestión de trámites e, incluso, las tareas de vigilancia e inteligencia a partir de fuentes abiertas. Y hemos analizado varios de esos despliegues por las autoridades.

Esta alta actividad de desarrollo derivó en iniciativas que buscaron acompañar ese proceso de distintas maneras. Desde el sector público, han surgido iniciativas como los planes o estrategias de IA, que buscan impulsar su desarrollo, principalmente desde el poder ejecutivo. En paralelo, legisladores han presentado múltiples proyectos de ley, algunos de los cuales están en tratamiento en la actualidad. Organismos internacionales como la OCDE o la UNESCO también han desarrollado directrices y recomendaciones para impulsar el uso ético de estas tecnologías, promoviendo principios para orientar políticas y proyectos de ley.

Frente a este torbellino de actividad, es propicio contar con herramientas que permitan establecer un panorama general a partir de dimensiones que contemplen una perspectiva de derechos humanos en torno al uso y regulación de la IA. Estas herramientas pueden ser de utilidad como mecanismos de monitoreo y para trazar una línea de referencia que permitan análisis futuros. A continuación, presentamos algunas de ellas.

Metodología de evaluación del estadio de preparación de la UNESCO

En el marco de la implementación de la Recomendación sobre la ética de la inteligencia artificial, la UNESCO generó la Metodología de evaluación del estadio de preparación (RAM, por sus siglas en inglés), una herramienta que, como su nombre lo indica, busca determinar la situación en la que se encuentran los países donde será implementada la Recomendación. Se trata de una iniciativa de implementación voluntaria, a pedido de los estados interesados en conocer su situación.

La metodología consta de cinco dimensiones: Jurídica/Regulatoria, Social/Cultural, Económica, Científica/Educativa y Tecnológica/de Infraestructura. Dentro de cada dimensión, las preguntas se agrupan en diferentes categorías las que, a la vez, se desglosan en indicadores y subindicadores específicos. Los indicadores incluyen índices tanto cualitativos como cuantitativos, lo que la UNESCO resalta como un factor diferenciador de la RAM respecto de otros índices.

Como resultado, la UNESCO publica un “informe país”, que proporciona un panorama detallado en función de las dimensiones analizadas. La evaluación se está aplicando en más de cincuenta países a nivel global y ya finalizó y presentó cerca de una decena de informes, como el de Chile en enero y México en julio de 2024.

Índice Global de Inteligencia Artificial Responsable

El Índice Global de Inteligencia Artificial Responsable (GIRAI, por sus siglas en inglés) es una herramienta que busca proporcionar un punto de referencia para evaluar el progreso hacia una IA “responsable” en todo el mundo. El programa parte de una definición operativa, que define a la IA responsable como el “diseño, desarrollo, despliegue y gobernanza de la IA de una manera que respete y proteja todos los derechos humanos y defienda los principios de la ética de la IA a través de cada etapa del ciclo de vida de la IA y la cadena de valor”. El desarrollo del índice fue liderado por el centro de pensamiento africano Global Center on AI Governance, con apoyo de múltiples instituciones públicas.

La metodología de índice contempla tres dimensiones en su medición. Ellas son: “Derechos humanos e IA”, que mide el grado en que los países toman medidas para proteger derechos involucrados en estas tecnologías; “Gobernanza responsable”, que mide cómo los países establecen herramientas como leyes, estándares técnicos o marcos de política pública; y “Capacidades de IA responsable”, que miden las capacidades en los países para avanzar en los compromisos y agendas de desarrollo de inteligencia artificial responsable. Derechos Digitales participó del desarrollo de esta metodología.

El índice acaba de publicar su primera versión, con datos sobre 24 países de América Latina y el Caribe. Aunque según el índice hay mucho en qué progresar, esta línea de base sirve como antecedente para los esfuerzos de incidencia por una IA responsable.

Inteligencia Artificial e Inclusión: el método deinvestigación de Derechos Digitales

Desde 2019, Derechos Digitales ha implementado su línea de trabajo en Inteligencia Artificial e Inclusión, para indagar acerca de casos de uso de tecnologías basadas en IA por parte de múltiples estados en América Latina. Para estas investigaciones, desarrollamos una metodología basada en criterios de derechos humanos, a partir de cinco dimensiones: Contexto nacional de implementación; Contexto regulatorio e institucional; Infraestructura de datos; Proceso de la toma de decisión; y Diseño tecnológico. Cada una de estas dimensiones, a la vez, es analizada según principios de efectividad y legitimidad.

Al momento, han sido publicados seis estudios de caso: dos en Brasil, sobre el Sistema Nacional de Empleo y el Auxilio de Emergencia durante la pandemia, dos en Chile, sobre el Sistema Alerta Niñez y el Sistema predictivo del delito urbano, uno en Uruguay, sobre la gestión de información de salud durante la pandemia de COVID-19, y otro en Colombia, acerca del uso de IA en la justicia constitucional con el proyecto PretorIA. Todos los casos están disponibles en el sitio de Inteligencia Artificial e Inclusión, junto con material de resumen de los hallazgos más relevantes.

Esta iniciativa continúa en Derechos Digitales, en un momento en que estas aplicaciones parecen solo expandirse en la región. Próximamente publicaremos cuatro nuevos casos, sobre experiencias en Argentina, México, Paraguay y Colombia. Con esto, daremos una importante panorámica sobre la forma en que estos despliegues son implementados en distintos niveles de gobierno, nacional o subnacional, tanto en los poderes ejecutivo como el judicial.

Trabajar en coalición: condición necesaria para desarrollar metodologías confiables

Las metodologías mencionadas derivan en distintos productos, tales como informes, índices y estudios de caso, que permiten monitorear el avance en la implementación y regulación de la IA en América Latina, además de otras partes del mundo. Esto representa un aporte para conocer el escenario global y comparado al que nos enfrentamos. Más allá de su utilidad, resaltamos la necesidad de generar no solamente metodologías de monitoreo, sino de formar coaliciones entre organizaciones de la sociedad civil y la academia, para la producción y el mejoramiento de este tipo de herramientas, como también para su uso y problematización, con el objetivo de contar con formas de medición más fiables, que contemplen componentes de derechos humanos y consideraciones sobre el rol de la sociedad en el despliegue de las tecnologías que pueden afectarle.

Además, el rol de coaliciones puede ser central a la hora de impulsar políticas de acceso a la información sobre el uso de IA por parte de los Estados y de promover mejores prácticas y estándares de transparencia y participación. Dada la opacidad con la que se implementan muchas de estas políticas, que como característica habitual presentan manejos cuestionables de datos personales y escasos espacios abiertos a la participación, es a través del trabajo conjunto desde pericias y puntos de vista diversos que podemos impulsar decisiones verdaderamente responsables sobre el uso de las tecnologías.