publicações

Imagem - Marco Legal da Inteligência Artificial no Brasil avança no Senado
Alerta Digital

Marco Legal da Inteligência Artificial no Brasil avança no Senado

Ontem, 10/12/2024, o Senado aprovou o substitutivo ao texto do PL 2338/23 (apresentado em 05/12/2024), que cria o “Marco Legal da Inteligência Artificial no Brasil”. O projeto estabelece regras para o desenvolvimento, fomento e uso ético e responsável da IA no país, priorizando a centralidade da pessoa humana. A proposta segue agora para a Câmara dos Deputados e poderá retornar ao Senado, caso sofra alterações, antes de ser submetida à sanção presidencial.

Embora tenham surgido críticas de diferentes setores e organizações da sociedade civil, o texto final buscou um equilíbrio entre interesses públicos e privados, refletindo a complexidade da matéria.

O projeto mantém o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela ANPD (Autoridade Nacional de Proteção de Dados), como responsável por promover a cooperação e harmonização com autoridades setoriais e outros órgãos reguladores sobre o tema.

Entre os avanços, destaca-se a ampliação da participação de entidades setoriais, sobretudo quanto à classificação de riscos dos sistemas de IA, estabelecimento de regras para o uso de IA e avaliação de impacto algorítmico.

A obrigatoriedade da avaliação preliminar de riscos foi flexibilizada: ela é agora facultativa como boa prática geral e obrigatória apenas para sistemas generativos e de propósito geral. A definição de casos em que a avaliação será simplificada ou dispensada ficará a cargo da autoridade setorial, conforme normas gerais.

A classificação dos riscos é assimétrica, com maior carga regulatória aplicada a sistemas mais arriscados. Sistemas de risco excessivo, como os que possam causar danos à saúde, avaliar traços de personalidade ou explorar sexualmente crianças, são proibidos. Já sistemas de alto risco incluem aplicações como veículos autônomos, controle de trânsito, gestão de recursos hídricos, seleção acadêmica e decisões de recursos humanos, entre outros. Algoritmos de distribuição de conteúdo em redes sociais foram excluídos dessa categoria.

Inspirado no AI Act europeu, o texto exclui da classificação de alto risco os sistemas que atuem como ferramentas intermediárias sem influenciar decisões relevantes. Além disso, o critério que vinculava o uso de dados em larga escala à definição de sistemas de alto risco foi removido, considerando que essa característica é comum à maioria dos sistemas de IA.

Outro ponto relevante é a proteção aos direitos autorais. Desenvolvedores de IA deverão informar sobre conteúdos protegidos utilizados no desenvolvimento dos sistemas, respeitando os direitos do autor e assegurando os interesses econômicos dos titulares. A utilização de conteúdos protegidos exigirá remuneração e estará sujeita a sanções por eventuais violações. Exceções são previstas para instituições de pesquisa, jornalismo, museus, bibliotecas e organizações educacionais, em linha com a Lei de Direitos Autorais.

O texto também excluiu dispositivos que tratavam de critérios como riscos à integridade da informação, liberdade de expressão e pluralismo político para regulamentar hipóteses de IA de alto risco.

Por fim, foram mantidas as sanções administrativas, que variam de advertências a multas de até R$ 50.000.000,00 por infração ou 2% do faturamento bruto, no caso de pessoas jurídicas de direito privado. Também há previsão de que os infratores também poderão ser autuados por descumprimento relacionados à LGPD e outras normas correlatas.

A equipe Inovação do Machado Nunes está disponível para esclarecer dúvidas e apoiar nas demandas relacionadas ao tema.