publicações

Imagem - Nova Redação PL 2338/23
Alerta Digital

Nova Redação PL 2338/23

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil apresentou na data do dia 28/11/2024 seu relatório contendo um novo texto, que será votado antes de seguir ao Plenário do Senado. Se aprovado, o texto será encaminhado à Câmara dos Deputados. 

O relatório trouxe alterações importantes, sobretudo para esclarecer as responsabilidades dos agentes envolvidos na cadeia de valor de sistema ou aplicações de IA. Abaixo, a equipe de Inovação do Machado Nunes traz algumas das suas impressões iniciais sobre os principais alterações no texto: 

  • Definição mais clara das responsabilidades pela realização de avaliações de impacto: conforme o art. 25, a avaliação de impacto algorítmico será obrigatória para o desenvolvedor ou aplicador que introduzir ou colocar um sistema de IA em circulação, seja de forma onerosa ou gratuita.
  • Obrigações mais realistas aos agentes de IA: houve esforços para garantir direitos de forma realista aos afetados por sistemas de IA alinhando-se ao “estado da arte do desenvolvimento tecnológico” (art. 6º, §2º). Isso significa que os direitos e proteções oferecidos serão compatíveis com o nível atual de avanço técnico, evitando exigências inviáveis ou desconectadas da realidade tecnológica, mas ainda assegurando o máximo de proteção possível.
  • Ampliação de autonomia das autoridades setoriais: permitindo-lhes definir hipóteses para a simplificação ou dispensa de avaliações preliminares (art. 12, §2º) e requisitar o acesso a avaliações de impacto para análise de riscos (art. 12, §6º).
  • Exclusão da figura do “encarregado”, anteriormente prevista no art. 4º, XXV: seria pessoa ou comitê responsável por atuar como canal de comunicação entre os agentes de IA, autoridades competentes e grupos afetados. Apesar disso, recomenda-se que os agentes considerem a formação de comitês multidisciplinares para conduzir análises técnicas e de governança, com base nos principais frameworks sobre a matéria e na complexidade dos sistemas.
  • Aprimoramento da definição de sistemas de alto risco: como no caso de aplicações que influenciam decisões em processos seletivos para instituições de ensino (art. 14, II). Por outro lado, ficou estabelecido que sistemas que atuam como tecnologia intermediária, sem influenciar ou determinar resultados, não serão considerados de alto risco (art. 14, parágrafo único), em uma abordagem semelhante à do AI Act.
  • Exclusão do critério que vinculava de dados em larga escala: o uso de dados em larga escala à definição de sistemas de alto risco do art. 15 o critério que vinculava o uso de dados em larga escala à definição de sistemas de alto risco, reconhecendo que essa é uma característica inerente à maioria dos sistemas de IA.

Apesar de considerarmos melhoria da redação, compreendemos que ainda persistem questionamentos sobre a complexidade da norma e seus possíveis impactos futuros, especialmente em relação a investimentos e inovação tecnológica no Brasil. O cenário remete às discussões iniciais sobre o AI Act no bloco europeu, que, apesar de mais enxuto, também enfrenta críticas similares.

Outra preocupação é a forma de operacionalização do Sistema Nacional de Inteligência Artificial (SIA), especialmente no que diz respeito ao papel da ANPD e demais autoridades setoriais, bem como a gestão de eventuais conflitos entre esses órgãos – ponto ainda não esclarecido a partir do texto apresentado.