Avaliação de impacto e combate à corrupção entram no radar
Câmara dos Deputados – Três projetos de lei apresentados recentemente impõem regras duras para qualquer empresa que desenvolva ou opere sistemas de inteligência artificial no país, incluindo avaliação de impacto obrigatória e certificação prévia pela ANPD.
- Em resumo: PLs 704/2026 e 762/2026 somam-se ao PL 2338/2023 para criar camadas de controle que vão do licenciamento de dados até a responsabilização objetiva por falhas.
Risco alto? Só com aval da ANPD
O PL 762/2026 classifica como “alto impacto” aplicações que interferem em crédito, saúde, consumo ou infraestrutura crítica. Antes de entrar em operação, esses sistemas precisarão de certificação pública e registro, sob pena de suspensão. Medidas semelhantes foram cogitadas na União Europeia e nos EUA; segundo a MIT Technology Review, o gargalo costuma ser a capacidade técnica dos órgãos reguladores para auditar algoritmos proprietários.
“Decisões automatizadas com potencial de prejuízo significativo deverão contar com revisão humana e explicabilidade compatível com segredos industriais”, determina o texto do PL 762/2026.
Anticorrupção e inclusão social viram lei-guia
Já o PL 704/2026 torna o combate à corrupção e a redução das desigualdades pilares oficiais da política nacional de IA. Isso significa que bases de dados, pipelines de machine learning e a governança de modelos precisarão demonstrar rastreabilidade e critérios de não discriminação. Consultorias estimam que o custo médio de adequação pode girar entre 0,5% e 3% do faturamento anual de projetos de TI, valor similar ao visto após a entrada em vigor da LGPD.
Por que o mercado precisa agir já
Empresas de telecomunicações, bancos e healthtechs sentirão o impacto primeiro, pois já lidam com regras setoriais da ANATEL, Bacen e ANS. Integrar requisitos de privacidade, PI, segurança cibernética e now as regras de IA demandará equipes multidisciplinares, documentação de datasets e testes de vieses desde a fase de POC. Gartner projeta que, até 2027, 60% das auditorias de TI incluirão checkpoints específicos de IA responsável.
O que você acha? Sua organização está pronta para encarar certificação e auditoria de modelos? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Demarest