CARTA ABERTA: Defendendo uma legislação brasileira de IA que proteja direitos


Brasília, 2 de Julho de 2024

No Brasil, é urgente uma abordagem embasada em direitos humanos para a regulamentação dos Sistemas de Inteligência Artificial.

É inegável que os sistemas de inteligência artificial (IA) podem proporcionar inúmeros benefícios à sociedade, nomeadamente na promoção dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU.

No entanto, a falta de regras vinculativas para regular o desenvolvimento, a implementação e a utilização da IA ​​tem um enorme potencial para exacerbar riscos conhecidos e evitáveis. A IA, de um lado,  já facilita algumas atividades e, de outro, também gera danos e violações concretos, ao reforçar práticas discriminatórias, excluir grupos historicamente marginalizados do acesso a bens e serviços essenciais, apoiar a desinformação, minar processos democráticos, incrementar a vigilância, exacerbar as alterações climáticas, acelerar o epistemicídio de indígenas e línguas e culturas locais, e intensificando a insegurança no emprego.

Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência. Isto não impede o desenvolvimento e a inovação; pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis ​​que melhorem o potencial humano e o Estado de direito democrático.

O Projeto de Lei 2338/2023, que se centra nos riscos e nos direitos, é um bom guia para a regulação da IA, tendo em conta o cenário internacional. Embora ainda haja espaço para melhorias, como mostramos a seguir, esta abordagem facilitaria o diálogo entre as legislações dos diferentes países (interoperabilidade/convergência regulatória), reduzindo o esforço das organizações para se adaptarem ao contexto brasileiro. Além disso, a regulamentação da IA ​​baseada em direitos e atenta aos seus riscos ajudaria a posicionar o Brasil como pioneiro no fornecimento e adoção de tecnologias responsáveis.

Desmascarando mitos e falsas soluções: a regulamentação como motor da inovação responsável e do desenvolvimento económico inclusivo

Os atores que se opõem à regulamentação abrangente da IA ​​no Brasil são precisamente aqueles que se beneficiam desta situação não regulamentada, criando argumentos e narrativas que não se sustentam na prática.

  1. Regulamentação vs. Inovação → Não há conflito entre regulação e inovação; ambos podem e devem coexistir, como se vê no Código Brasileiro de Defesa do Consumidor e na Lei Geral de Proteção de Dados. Além disso, a regulação dos sistemas de IA baseada em riscos/direitos permite a promoção da inovação responsável, fomentando o desenvolvimento econômico, tecnológico e social que dá prioridade ao bem-estar e à promoção dos direitos fundamentais. Nesse sentido, a Academia Brasileira de Ciências publicou um relatório sobre a regulamentação da IA, confirmando que estimular a indústria nacional de IA e proteger os direitos fundamentais são agendas perfeitamente compatíveis.
  2. “Aumento da necessidade de diálogo” → A sociedade civil tem defendido um diálogo mais inclusivo e sistemático. Contudo, aqueles que são contrários a uma regulamentação prescritiva utilizam o mesmo argumento para prejudicar e abrandar o processo legislativo. Atrasar a adoção de uma regulamentação responsável permite o desenvolvimento e a implementação contínuos de tecnologias de risco.
  3. Tecnologia desconhecida → O argumento de que a IA é inerentemente perturbadora e incontrolável para fins regulatórios não se sustenta porque (a) os estudos sobre o tema, tanto na academia quanto no setor privado, acumulam oito décadas de experimentação e análise de impactos sociais; (b) Os agentes de IA, especialmente os desenvolvedores, têm agência na tomada de decisões sobre a concepção, desenvolvimento e implementação de tecnologia, incluindo a opção de não implementá-la se mecanismos de transparência, controle de qualidade e responsabilidade são considerados inadequados.

Além de argumentos e narrativas falaciosas, há uma forte mobilização dos setores produtivos e das empresas de tecnologia para impedir a votação do Projeto de Lei, seja por meio da imposição de uma enxurrada de emendas de última hora, de pedidos de audiências públicas, ou de lobby direto junto aos parlamentares. O lobby da indústria é enorme, incluindo  viagens internacionais e eventos privados organizados por big techs para os senadores mais envolvidos no debate.

Após um lobby bem-sucedido para adiar a votação do projeto, uma nova rodada de audiências públicas foi convocada. O primeiro pedido de indicação de nomes para as audiências incluía apenas indivíduos do setor privado, composto basicamente por homens brancos do sudeste do país, desconsiderando outros setores, especialmente a sociedade civil, bem como marcadores sociais de raça, gênero e território. Coube à sociedade civil lutar pela inclusão de alguns dos seus representantes.

Cenário Regulatório Brasileiro: Junho de 2024

Como trabalho final da Comissão Temporária de Inteligência Artificial (CTIA) do Senado Federal, foi publicado em 7 de junho de 2024 um relatório contendo uma nova proposta de Projeto de Lei 2338, que foi novamente atualizado em 18 de junho de 2024. É importante destacar que esta última proposta inclui elementos considerados essencial para a adequada regulamentação dos sistemas de IA no Brasil, a saber:

  • Garante direitos básicos para indivíduos potencialmente afetados pela IA;
  • Define usos inaceitáveis ​​de IA, que representam riscos significativos para direitos fundamentais;
  • Cria orientações gerais e obrigações de governança, com requisitos específicos para sistemas de alto risco e para o setor público;
  • Mantém avaliações de impacto algorítmico para identificar e mitigar riscos, bem como avaliar oportunidades;
  • Dá especial atenção ao contexto brasileiro de racismo estrutural, incorporando ao longo do texto medidas para prevenir e combater diferentes formas de racismo discriminação direta e indireta, bem como para proteger grupos vulneráveis;
  • Estabelece um quadro de supervisão onde a autoridade competente trabalha em conjunto com os reguladores setoriais.

Além disso, gostaríamos de destacar melhorias importantes que foram acrescentadas ao texto original do Projeto de Lei 2.338 pela última proposta:

  • Proibição explícita de sistemas de armas autônomas;
  • Criação de medidas de governança específicas para IA de uso geral e generativa, o que é fundamental porque tais sistemas podem não se enquadrar perfeitamente nas categorizações de nível de risco;
  • Acrescenta a participação social nos processos de governança;
  • Definição do regime de responsabilidade civil para operadoras, fornecedores e distribuidores de sistemas de inteligência artificial conforme previsto no Código de Defesa do Consumidor (responsabilidade objetiva) para as relações de consumo e no Código Civil para os demais casos. Ao mesmo tempo, garante também o dever de inversão do ônus da prova em caso de vulnerabilidade; falta de compreensão e recursos da vítima; ou quando as características do sistema de IA tornam excessivamente oneroso para a vítima provar os requisitos de responsabilidade civil;
  • Designação direta da Autoridade Brasileira de Proteção de Dados como autoridade competente para harmonizar o sistema de supervisão, em colaboração com outros intervenientes.

Apesar dos avanços descritos acima, a última versão mantém ou agrava questões críticas que contradizem o objetivo central de regulamentar a IA para proteger direitos e prever  inovação responsável. 

O que pode ser feito para melhorar a regulamentação brasileira?

Inicialmente, é importante destacar que os usos proibidos de sistemas de IA não devem estar vinculados a causalidade, como causar ou ter probabilidade de causar danos. Assim, para as proibições ao uso de técnicas subliminares (art. 13, I) e daquelas que exploram vulnerabilidades (art. 13, II), a menção de “forma que cause ou possa causar dano à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” devem ser excluídos.

Além disso, o uso de tecnologias de reconhecimento facial para segurança pública e justiça criminal devem ser banidas, considerando que estas são áreas altamente sensíveis devido ao potencial de restringir direitos fundamentais, como a liberdade de expressão e de reunião, além de reverter a presunção de inocência. Esses usos também acabam por reafirmar o potencial discriminatório destas tecnologias, que muitas vezes conduzem a erros – conhecidos como falsos positivos – levando a situações inaceitáveis, como a prisão injusta de homem em Sergipe, o tratamento agressivo de um jovem após uma identificação equivocada em Salvador, e a prisão injusta de uma mulher no Rio de Janeiro. Casos como esses são graves e recorrentes.

A vigilância constante, massiva e indiscriminada constitui uma violação dos direitos e liberdades das pessoas e limita o espaço cívico e público. O que se sabe sobre os sistemas de reconhecimento facial é que eles são ineficientes e geram custos desnecessários para a administração pública devido às suas altas taxas de erro. Um estudo recente indicou um custo médio para recursos públicos de 440 mil reais por cada prisão realizada por meio de reconhecimento facial. Além da sua ineficiência, tais sistemas têm sido consistentemente denunciados pelo seu impacto discriminatório, afetando desproporcionalmente as populações negras e, em maior medida, as mulheres.

Consideramos a autorização para uso de sistemas de reconhecimento facial como uma violação dos direitos fundamentais garantidos ao povo brasileiro. Além disso, a forma como a sua utilização é permitida, sem salvaguardas e proteções específicas, dada a natureza destes sistemas, agrava problemas já reconhecidos. Igualmente preocupante é a falta de legislação específica de proteção de dados para atividades de segurança pública.

Além disso, há necessidade de mudança nas disposições da categoria de alto risco, principalmente no que diz respeito (a) à avaliação da capacidade de endividamento e ao estabelecimento de pontuações de crédito e (b) usos prejudiciais da IA. 

  1. Avaliação da capacidade de endividamento e estabelecimento de pontuações de crédito 

A pontuação de crédito é uma ferramenta utilizada por bancos e instituições financeiras para avaliar se um indivíduo é um tomador confiável com base no seu risco de inadimplência, por exemplo, ao tomar decisões sobre o acesso ao crédito nessas instituições.

O acesso ao crédito financeiro é fundamental como pré-requisito para o exercício de uma série de direitos garantidos constitucionalmente, o que sublinha a importância de salvaguardas robustas na pontuação de crédito definida pela IA. Isto é especialmente crucial devido ao seu comprovado potencial de discriminação, como evidenciado pela investigação1, incluindo estudos realizados no contexto brasileiro2.  É importante notar que, além da importância crítica do crédito como pré-requisito para o acesso a bens e serviços essenciais, como cuidados de saúde e habitação, os modelos de crédito são alimentados com uma grande quantidade de dados pessoais, o que por si só exige uma maior proteção de segurança. 

Considerar esta aplicação na classificação de alto risco é consistente com outras regulamentações internacionais, como o Regulamento Europeu sobre Inteligência Artificial, o AI act.

  1. Usos prejudiciais da IA

O Artigo 14, IX, X e XI elenca usos da IA ​​que comprovadamente têm mais efeitos negativos do que positivos e são contrários ao direito internacional. Estes referem-se a  estudo analítico de crimes envolvendo pessoas físicas para identificação de padrões e perfis comportamentais; avaliar a credibilidade das evidências; policiamento preditivo; e reconhecimento de emoções.

Isto ocorre principalmente porque tais usos estão associados ao tecnossolucionismo e às teorias lombrosianas, o que reforçaria a discriminação estrutural e a violência histórica contra determinados grupos da sociedade, particularmente a população negra.

Em 2016, ProPublica publicou um estudo mostrando como um sistema de IA usado para gerar um pontuação preditiva da probabilidade de um indivíduo cometer crimes futuros mostrou resultados tendenciosos baseados em raça e gênero que não correspondiam à realidade dos indivíduos que efetivamente cometeram ou reincidiram. Assim, a subseção X do Artigo 14 permitiria potencialmente que a IA fosse usada de maneira semelhante para “prever a ocorrência ou recorrência de um crime real ou potencial com base no perfil de indivíduos”, o que não foi comprovado cientificamente e, pelo contrário, demonstrou aumentar potencialmente as práticas discriminatórias. 

A Subseção XI, sobre identificação e autenticação biométrica para reconhecimento de emoções, também é preocupante, pois não há consenso científico na capacidade de identificar emoções com base apenas em expressões faciais, o que levou, por exemplo, a Microsoft a descontinuar o uso de ferramentas de IA para tais fins.

Nesse sentido, consideramos a necessidade de classificar os usos previstos no artigo 14,  IX, X e XI como riscos inaceitáveis.

Participação da sociedade civil no sistema de governança e supervisão

A versão atual do projeto de lei melhorou a definição do sistema de fiscalização. O texto agora propõe a criação do Sistema Nacional de IA (SIA), composto pela autoridade competente, apontada como a Autoridade Nacional de Proteção de Dados (ANPD), autoridades setoriais, o

novo Conselho Regulador Cooperação em IA (CRIA) e o Comitê de Peritos e Cientistas em IA (CECIA). 

Considerado um importante avanço, o Conselho de Cooperação Regulatória, que servirá como fórum permanente de colaboração, inclui agora a participação da sociedade civil. No entanto, é importante garantir que esta participação seja significativa, garantindo à sociedade civil um papel ativo e eficaz na governança e regulamentação de IA.

Pela aprovação do Projeto de Lei 2338/2023 com inclusão das melhorias

Com tudo dito, as entidades subscritoras manifestam apoio ao avanço do processo legislativo do Projeto de Lei 2338/2023 na Comissão de IA (CTIA) e no plenário do Senado rumo à sua aprovação, desde que as seguintes melhorias sejam feitas: 

  1. Alterações do Artigo 13, I e II para excluir o nexo causal de ‘causando ou podendo causar danos’ pelas proibições de uso de técnicas subliminares e de exploração de vulnerabilidades;
  2. Alteração do Artigo 13, VII para excluir as exceções ao uso de dados biométricos de identificação por sistemas remotamente, em tempo real e em espaços acessíveis ao público, portanto proibindo o uso destes sistemas para a segurança pública e a persecução penal. Ou, no mínimo, pedimos um moratória que autorize usos nas exceções listadas somente após aprovação de lei federal que especifique as finalidades de uso e garanta o cumprimento de medidas de salvaguarda suficientes (pelo menos aquelas garantidas para sistemas de IA de alto risco);
  3. Retorno do pontuação de crédito ou outros sistemas de IA destinados a serem usados ​​para avaliar a qualidade de crédito de pessoas físicas para o alto risco listada no artigo 14.º, com a possibilidade de criar uma exceção para sistemas de IA utilizados para detectar fraudes financeiras;
  4. A mudança de classificações dos sistemas mencionados no Artigo 14, IX, X e XI para a categoria de riscos inaceitáveis; 
  5. Garantir a participação da sociedade civil no Sistema Nacional de Governança e Regulação de Inteligência Artificial (SIA), por meio da composição do Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), é eficaz e significativo.

Acess Now

Coalizão Direitos na Rede

IP.rec – Instituto de pesquisa em direito e tecnologia do Recife 

Laboratório de Políticas Públicas e Internet – LAPIN

Transparência Brasil

Institute for Research on Internet and Society (IRIS)

Instituto Telecom

  1. Apenas a título exemplificativo: https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back/
    ↩︎
  2. VILARINO, Ramón; VICENTE, Renato. Um experimento sobre os mecanismos de preconceito racial na pontuação de crédito baseada em ml no Brasil (2020). https://arxiv.org/abs/2011.09865.
    ↩︎

O post CARTA ABERTA: Defendendo uma legislação brasileira de IA que proteja direitos apareceu primeiro em Coalizão Direitos na Rede.