Projetos de lei exigem trilhas de auditoria e supervisão humana
Governo federal brasileiro — A adoção acelerada de inteligência artificial em serviços públicos já redefine concessões de benefícios e análise de fraudes, mas suscita alerta: sem regras robustas de governança, decisões equivocadas podem ser multiplicadas milhares de vezes, comprometendo direitos fundamentais.
- Em resumo: Senado aprovou marco que impõe avaliações de risco, documentação técnica e revisão humana para algoritmos considerados sensíveis.
Da inovação ao dever de accountability
O Projeto de Lei 2.338/2023 desloca o debate de “proibir ou não IA” para “quem responde quando ela falha”. A proposta ecoa recomendações de especialistas internacionais; segundo análise da MIT Technology Review, governos que não registram a lógica dos modelos perdem capacidade de ajustar vieses e prestar contas à população.
“IA no governo é uma forma de poder administrativo em escala.”
Contexto global pressiona adoção de controles
A União Europeia avança com o AI Act, que classifica usos públicos de IA — como reconhecimento facial em aeroportos — como “alto risco”, exigindo auditoria externa e explicabilidade. Já na Estônia, mais de 80 serviços digitais operam sobre trilhas de blockchain para garantir integridade dos registros, modelo citado como referência em eventos da OECD Digital Government. Esses exemplos reforçam que Brasil precisará investir em infraestrutura de logs, equipes de ciência de dados e comitês de ética se quiser manter competitividade e confiança cidadã.
O que você acha? Regulamentação suficiente ou precisamos de testes-piloto antes da adoção em massa? Para mais análises sobre IA e políticas públicas, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Shutterstock