Muito do que se discute sobre inteligência artificial (IA) nos remete aos filmes e livros de ficção científica. Robôs bem humanóides e brilhantes estão nas fotos de muitas páginas que falam sobre esse tipo de tecnologia. Daniel Leufer aponta esse e outros mitos no uso e na discussão sobre IA, em um site que vale a pena dar uma olhada. Além desse mito da representação, adiciona-se uma definição muito ampla, que seriam tecnologias dotadas de uma superinteligência, cujo uso pode ser objetivo, sem vieses e que poderiam resolver senão tudo, mas um monte de problemas.
Longe de estarmos perto de robôs do filme de Steven Spielberg ou do estrelado por Will Smith, muitas partes da nossa vida já são afetadas pelo uso da IA: seja pela sua utilização pelo Estado para realização das mais variadas tarefas e na sua tomada de decisões ou ainda por empresas em geral.
Dois elementos do mito “governança da IA” nos levam a algumas perguntas. É certo que muitos países na América Latina, como Colômbia, Chile, Brasil e Uruguai, já estão regulamentando estratégias nacionais para lidar com IA, além de tentar aprovar projetos de lei específicos sobre sua regulamentação, como estamos vendo nas discussões atuais.
No caso do Brasil, o Projeto de Lei 21/2020, que tenta regulamentar a IA, tem recebido críticas contundentes, como a feita pela Coalizão Direitos na Rede essa semana, por sua aprovação na Câmara dos Deputados sem uma discussão efetiva com a sociedade, que implicam na grave fragilização de direitos já existentes. Na Europa, as discussões também estão quentes e a sociedade civil organizada pede um Artificial Intelligence Act (AIA) que dê prioridade aos direitos fundamentais.
Essa semana foi lançado o Global Index on Responsible AI, projeto da Research ICT Africa e da Data 4 Development network. Esse índice pretende acompanhar a implementação de princípios de IA responsável em mais de 120 países, por meio de uma rede internacional de pesquisadores independentes que será estabelecida para avaliar até que ponto os princípios estão sendo aplicados. O nome do evento de lançamento traz a vontade de grande parte da sociedade, que é passar dos princípios para a prática, diante de tantos riscos e violações aos direitos humanos.
Aqui, queremos analisar novos desenvolvimentos no tema da regulamentação da IA no âmbito de organismos internacionais, que se somaram, por exemplo, aos princípios da OCDE sobre IA, que haviam sido aprovados em 2019.
Impactos negativos e catastróficos, com graves riscos à privacidade e cobrança de ações urgentes
Michelle Bachelet, Alta Comissária de Direitos Humanos da ONU, publicou recentemente um importante relatório sobre os graves riscos à privacidade decorrente da utilização de ferramentas de IA (A/HRC/48/31).
Segundo Bachelet, a perfilização, a tomada de decisão automatizada e tecnologias de aprendizado de máquina (machine learning), apresentam grande impacto ao direito à privacidade e vários outros direitos que estão associados em pelo menos quatro setores específicos. Para o setor de aplicação da lei, segurança nacional, justiça criminal e gestão de fronteiras as implicações são variadas. Para mencionar algumas: ampla base de dados que prejudica ou direciona à privacidade, alta probabilidade de previsão para buscas, questionamentos e processos criminais, uma grande opacidade dos sistemas que impedem uma verdadeira responsabilização do Estado em áreas que historicamente já sofrem com a falta de transparência.
O uso da IA no reconhecimento biométrico remoto (reconhecimento facial e de emoções) também é severamente criticado pelo relatório, pois prejudica “a capacidade das pessoas de viverem as suas vidas sem serem observadas e resultando num efeito negativo direto no exercício dos direitos à liberdade de expressão, de reunião pacífica e de associação, bem como liberdade de movimento”.
O relatório tinha sido requerido pela ONU em 2015, na Resolução n. 42/15, e teve como base um encontro com experts em maio de 2020, assim como pelos aportes recebidos de uma chamada específica para essa finalidade em 2021. Analisa o tema principalmente com base no Artigo 12 Declaração Universal dos Direitos Humanos e no art. 17 do Pacto Internacional sobre Direitos Civis e Políticos (ICCPR).
Bachelet ressalta que é muito grande o risco de discriminação decorrente da utilização de decisões baseadas em IA. Elenca possíveis abordagens para lidar com os desafios, fazendo uma série de recomendações sobre o desenho e implementação de salvaguardas para prevenção e minimização dos danos. Enquanto que as áreas da saúde, educação, habitação e serviços financeiros necessitam maior escrutínio, segundo o relatório, a área de identificação biométrica urgentemente demanda uma orientação voltada à defesa dos direitos humanos.
Duas dentre as nove recomendações de Bachelet aos Estados são muito expressivas. A primeira sobre banimento expresso de aplicações de AI que não possam ser operadas em conformidade com os direitos humanos. Ao mesmo passo que impor moratórias até que salvaguardas adequadas sejam adotadas para venda e compra de sistemas de IA que apresentem alto risco para os direitos humanos.
Já a segunda recomendação expressiva é para que os Estados imponham uma moratória no uso de reconhecimento biométrico remoto em espaços públicos, até que autoridades possam demonstrar estarem de acordo com padrões de privacidade, proteção de dados e que não haja problemas de acurácia e impactos discriminatórios. É interessante notar que esta questão da moratória do reconhecimento facial já se tenha expressado na narrativa de 2020 produzida por Bachelet, sobre o impacto das novas tecnologias na promoção e proteção dos direitos humanos no contexto das assembleias, incluindo os protestos pacíficos (A/HRC/44/24).
As recomendações para empresas e Estados enfatizam a necessidade de devida diligência (due dilligence) em todo o ciclo de sistemas de IA, desde desenho, desenvolvimento, implantação, venda, obtenção e operação, com um foco grande em avaliações de impacto sobre os direitos humanos.
Impacto na privacidade, vigilância massiva e outros direitos humanos
Em outubro deste ano, o Conselho de Direitos Humanos da ONU revisou a Resolução sobre o direito à privacidade na era digital (A/HRC/RES/48/4). Trata-se de um importante passo, tendo em vista que não só atualizou como deixou mais claro quais os riscos e perigos na adoção da IA. O novo texto foi apresentado por Brasil e Alemanha, contou com uma série de reuniões informais entre os Estados com participação da sociedade civil e foi aprovado por consenso. Apesar da revisão da Resolução não ter sido mais incisiva quanto a alguns temas importantes, não há dúvidas de que a resolução cobra mais dos Estados, principalmente, respeitarem imediatamente o direito à privacidade e demais direitos humanos afetados.
A Resolução 48/4 reconheceu que a IA pode trazer sérios riscos ao direito à privacidade, “principalmente quando é empregada para identificação, rastreamento, perfilização, reconhecimento facial, predição comportamental (behavioural prediction) e para o estabelecimento de pontuação para os indivíduos”. Demanda ainda aos Estados para que adotem medidas preventivas e remédios pelas violações e abusos ao direito à privacidade, inclusive com dever de adotar medidas preventivas e de remediação para as violações e abusos, incluídos aqueles relacionados ao direito à privacidade, que podem afetar indivíduos, mas incluindo expressamente efeitos particulares contra mulheres, crianças, pessoas em estado de vulnerabilidade e/ou marginalizadas. E também que os Estados que desenvolvam e fortaleçam políticas públicas responsivas de gênero, que promovam e protejam o direito de todas as pessoas à privacidade.
Havia uma grande expectativa de que a referida resolução iria deixar algumas questões mais bem delimitadas, até por conta do contundente posicionamento da Alta Comissária dos Direitos Humanos em propor uma moratória de certas tecnologias de reconhecimento biométrico e facial, mas principalmente de fazer uma recomendação mais forte no sentido de que os Estados devem impor uma moratória para venda e compra de sistemas de IA.
Não obstante, entendemos que ainda haverá desdobramentos desta resolução, tendo em vista que determinou ao Alto Comissariado dos Direitos Humanos a apresentação de um relatório na 51ª Sessão do Conselho de Direitos Humanos, com tendências e desafios sobre o tema, identificando e esclarecendo princípios, salvaguardas e melhores práticas de direitos humanos relacionados, com a garantia de uma ampla participação de múltiplas partes interessadas na sua produção.
Abordagem de recomendações sobre ética na IA
Em 24 de novembro deste ano, a Conferência Geral da UNESCO adotou a recomendação sobre a Ética da Inteligência Artificial. O documento, endossado por 193 países, apresenta um preâmbulo com mais de 20 considerações, definindo seu escopo de aplicação, propósitos e objetivos, valores, princípios e áreas de aplicação.
Como valores, a Recomendação da UNESCO elenca: o respeito, proteção dos direitos humanos, liberdades fundamentais e dignidade humana, florescimento do meio ambiente e do ecossistema, diversidade e inclusão, sociedades pacíficas, justas e interconectadas. Já os princípios norteadores são os seguintes: proporcionalidade e não causar danos, segurança e proteção , justiça e não discriminação, sustentabilidade, direito à privacidade e proteção de dados, supervisão e determinação humanas, transparência e explicabilidade, responsabildiade e responsividade (accountability), consciência e literácia, além de governança de múltiplas partes interessadas (multistakeholder).
A Recomendação traz 11 grandes áreas de políticas públicas e, dentre elas, uma específica sobre avaliação de impacto ético (ethical impact assessment). Apesar de parecer um avanço, entendemos que esse ponto pode ser preocupante e necessita de maiores explicações. Primeiro, porque a referida avaliação de impacto ético tem como um dos seus elementos a avaliação de impacto em direitos humanos. Nesse sentido, há uma possível sobreposição das duas ferramentas de forma equivocada, na medida em que a avaliação de impactos em direitos humanos é mais abrangente e mais profunda do que a avaliação de impacto ético.
Segundo, pois as ferramentas de avaliação de impacto em direitos humanos e de devida diligência em direitos humanos já estão presentes em instrumentos jurídicos internacionais e já “se converteram na ferramenta mais recomendada pela ONU para que empresas comecem o processo contínuo de devida diligência em direitos humanos”, segundo o CELE, enquanto que diretrizes éticas carecem de “mecanismos de aplicação e definição: que instituições invocam e como empoderam as pessoas”, como descrito pela organização Artigo 19.
Apesar de ser um ótimo começo, a definição apenas de recomendações éticas para o uso de tecnologias de IA não é o suficiente. Conforme já ressaltado por Maria Paz Canales, “ética não é suficiente, em estados democráticos onde existe um compromisso normativo para promover e proteger direitos humanos”. É necessário dar mais normatividade à utilização de IA, pois ela já traz efeitos nefastos para uma parcela da população já vulnerável.
Conforme lembrado por Daniel Leufer, citado no começo deste artigo, apesar do boom da ética de IA, quando estamos diante de perigos gravíssimos, um balanceamento de benefícios contra danos pode levar a um questionamento de uma abordagem utilitária para ética. Contudo, uma abordagem focada nos direitos humanos simplesmente começa com o ponto de partida de que certos danos são inaceitáveis.
Apesar de a Recomendação fornecer uma importante estrutura ética composta de valores e princípios, ela deve ser entendida como uma complementação das obrigações internacionais de direitos humanos para orientar as ações dos Estados na formulação de suas legislações, políticas ou outros instrumentos relativos à IA, de acordo com o direito internacional já vigente.