Lei da inteligência artificial no Brasil: entenda o projeto aprovado na Câmara

Projeto que cria lei da inteligência artificial estabelece princípios e diretrizes; especialistas criticam falta de profundidade e responsabilização

Giovanni Santa Rosa
Por
• Atualizado há 11 meses
Projeto para criar marco legal para inteligência artificial já foi aprovado na Câmara (Imagem: Pixabay/Geralt)

Após leis sobre dados pessoais e governo digital, o Brasil está próximo de ter um marco para a inteligência artificial. O texto já foi aprovado na Câmara dos Deputados e aguarda apreciação do Senado Federal. Especialistas, porém, não gostaram do pouco tempo para discussões até agora. Além disso, eles dizem que a legislação não é suficientemente profunda e esperam que a outra casa do Poder Legislativo melhore essas questões.

Aprovado pela Câmara em 29 de setembro de 2021, o Projeto de Lei 21/2020 estabelece fundamentos e princípios para a inteligência artificial no Brasil, com diretrizes para o poder público.

Um ponto importante é que o texto define que a União é quem pode legislar e editar normas sobre a matéria. Recentemente, vimos algumas iniciativas municipais e estaduais sobre o assunto.

Um dos casos foi o do Ceará, que editou uma lei que definia que uma inteligência artificial só poderia operar sob supervisão humana. Se o texto já estivesse valendo, isso seria proibido.

O PL 21/2020 lista aspectos que dependerão de regulamentação e coloca nas mãos de órgãos e entidades setoriais a prerrogativa para isso, como agências reguladoras e o Banco Central. Eles também deverão monitorar o risco de sistemas de IA. O governo, porém, não poderá regular o tema, exceto quando for “absolutamente necessário”.

O projeto define princípios para a IA, como não discriminação, finalidade benéfica e centralidade do ser humano. O texto traz ainda fundamentos ao desenvolvimento e aplicação da tecnologia, como estímulo a autorregulação, a livre manifestação de pensamento, a livre expressão e a proteção de dados pessoais.

Deputada Luiza Canziani (PTB-PR), relatora do projeto de lei aprovado
Deputada Luiza Canziani (PTB-PR), relatora do projeto de lei aprovado (Imagem: Reprodução/Câmara dos Deputados)

O texto foi apresentado em fevereiro de 2020 pelo deputado Eduardo Bismarck (PDT-CE). A votação aprovou o substitutivo da parlamentar Luiza Canziani (PTB-PR), relatora do projeto e presidente da frente digital da Câmara.

O resultado foi elogiado pela Associação Brasileira de Empresas de Software, em carta divulgada:

Nós acreditamos que, dado o estágio inicial da tecnologia e sua dinamicidade de aplicação em diferentes setores, a atividade legislativa em andamento acerta na abordagem. Faz-se pertinente reforçar a competência institucional já existente para regulações setoriais aplicadas no Brasil também para os eventuais usos e aplicações que possam vir a ser feitos da inteligência artificial.

A tramitação foi criticada por especialistas. Eles apontam que as discussões foram aceleradas — não houve nenhuma consulta pública sobre o tema — e que a pressão das big techs prevaleceu. Eles acreditam que as discussões no Senado vão precisar de mais qualidade e um ritmo mais adequado, que permita criar diretrizes mais concretas e objetivas, bem como níveis mínimos de governança.

E as queixas não param por aí.

A questão da responsabilização

Um dos pontos polêmicos do texto é que qualquer regulamentação do assunto só deve estabelecer punições a quem desenvolve ou administra esses sistemas se houver culpa ou dolo. Isso está no artigo 6º do projeto de lei. Em termos mais técnicos, ele diz que as normas sobre os agentes da que atuam com sistemas de inteligência artificial devem se pautar na responsabilidade subjetiva.

Um grupo de juristas e membros da sociedade civil enviou uma carta ao Senado para que esse trecho seja alterado. No documento, eles dizem que a responsabilidade subjetiva impõe custos ao cidadão, que fica sem medidas de precaução, e cria um cenário de “irresponsabilização generalizada”.

A proposta, ao contrário, ao privilegiar o regime da responsabilidade subjetiva, não somente impõe os custos do desenvolvimento de aplicações de Inteligência Artificial ao cidadão — em inversão patente da tábua de valores constitucional — como não fomenta os necessários incentivos para que as devidas medidas de precaução sejam tomadas quando do seu emprego.

(…) A norma cria, antes, um cenário de irresponsabilização generalizada, na medida em que torna praticamente impossível a prova pelas vítimas da culpa dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial.

Na prática, porém, a situação pode não ser tão grave.

Em reportagem do Jota, Ivar Hartmann, professor do Insper, argumenta que responsabilizar objetivamente não é o melhor caminho, porque há cenários em que, mesmo com medidas tomadas e esforços, acontecem atos fortuitos.

O próprio PL 21/2020 determina que a exceção à responsabilização subjetiva são os casos de consumo — Hartmann diz que esses devem constituir a maioria das ocorrências.

Câmera de reconhecimento facial
Câmera de reconhecimento facial (Imagem: Bernard Hermant)

Inovação e regulamentação da inteligência artificial

Um dos pontos que nortearam a redação do marco legal da inteligência artificial até aqui foi não sufocar a inovação com uma regulamentação muito rígida. Por se tratar de um campo em rápida evolução, qualquer texto com intervenções mais poderia ficar ultrapassado em pouco tempo, tirando a competitividade das empresas.

Essa noção também vem sendo criticada. Em artigo publicado no Jota, a professora de direito Ana Frazão — uma das signatárias da carta mencionada acima — diz haver inconsistências nessa postura, que ela considera uma “narrativa” do governo.

Problemas como a discriminação algorítmica e a fragilidade dos consumidores no mundo digital, bem como riscos de tecnologias específicas como o reconhecimento facial, por exemplo, já são bastante conhecidos e poderiam ser objeto de regulação, argumenta a professora.

Além disso, a dificuldade de compreender o tema seria uma estratégia deliberada das empresas, que usam táticas empresariais e legais para colocar seus algoritmos em verdadeiras caixas pretas.

O que a União Europeia vem fazendo?

O texto do marco legal da inteligência artificial é bem mais tímido que outras legislações de tecnologia aprovadas no Brasil na última década, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais (LGPD). Quando a comparação é feita com o exterior, o projeto de lei também parece bastante curto.

Ao longo dos últimos anos, a União Europeia se tornou um exemplo — para o bem e para o mal — de tentativa de regular a tecnologia e as grandes empresas do ramo. Foi assim com a GDPR, lei do bloco para proteção de dados que teve repercussões em todo o mundo.

Além disso, as autoridades do Velho Continente tomaram muitas medidas contra big techs como Amazon, Apple, Google e Facebook por questões de proteção de dados e antitruste.

Bandeiras da União Europeia
Bandeiras da União Europeia (Imagem: Thijs ter Haar/Wikimedia Commons)

O bloco europeu vem discutindo desde 2018 como regulamentar a inteligência artificial — bem mais tempo que o Brasil, diga-se. Em abril de 2021, o primeiro rascunho foi compartilhado.

Ele traz uma classificação de risco com três categorias: inaceitável, alto e baixo/mínimo. Quatro aplicações caem no primeiro grupo e seriam proibidas pela atual versão do texto:

  • influenciar o comportamento usando técnicas subliminares, colocando em risco o indivíduo;
  • explorar vulnerabilidades de grupos ou indivíduos para modificar seu comportamento;
  • criar sistemas de confiabilidade com base em comportamento social (como o social scoring chinês);
  • usar identificação biométrica em espaços públicos para fins de segurança, exceto para buscar vítimas de crimes, prevenção a riscos como ataques terroristas ou investigação de autores de crimes graves, desde que haja autorização judicial.

No alto risco, há casos como uso de IA para infraestrutura crítica, educação profissional, segurança de produtos, gerenciamento de trabalhadores e aplicação da lei, entre outros. Usos como estes devem ser monitorados e documentados. Todas as outras aplicações entram em risco baixo ou mínimo.

O problema, porém, está em como classificar cada uso. Como argumenta a pesquisadora Dora Kaufman em artigo publicado na Época Negócios, há muitas áreas cinzentas, como os algoritmos de IA das redes sociais e dos motores de busca, como Google e Facebook. Eles seriam de alto risco? Ou deveriam ser proibidos por manipular comportamento?

Além disso, existe o temor de que as exceções abertas na proibição de identificação biométrica poderiam facilitar a vigilância estatal.

Kaufman também argumenta que a regulamentação europeia, como está hoje, pode aumentar os custos de sistemas desse tipo. Além disso, um órgão para supervisionar apenas inteligência artificial seria mesmo necessário, ou reguladores setoriais dariam conta de estabelecer suas próprias regras para a tecnologia?

Seja no Brasil, seja na União Europeia, ainda há muito a ser discutido.

Receba mais sobre Brasil na sua caixa de entrada

* ao se inscrever você aceita a nossa política de privacidade
Newsletter
Giovanni Santa Rosa

Giovanni Santa Rosa

Repórter

Giovanni Santa Rosa é formado em jornalismo pela ECA-USP e cobre ciência e tecnologia desde 2012. Foi editor-assistente do Gizmodo Brasil e escreveu para o UOL Tilt e para o Jornal da USP. Cobriu o Snapdragon Tech Summit, em Maui (EUA), o Fórum Internacional de Software Livre, em Porto Alegre (RS), e a Campus Party, em São Paulo (SP). Atualmente, é autor no Tecnoblog.

Canal Exclusivo

Relacionados