Regulamentacao

O curador de alucinações e o Estado que aprendeu a desconfiar de si mesmo

Vox Ethica Atualizado 10 maio 2026
Prédio do governo com digital e algoritmo representando IA no setor público

A Receita Federal apresentou em março uma política inédita de inteligência artificial. Entre os pontos mais comentados está a criação de um “curador de IA generativa” — uma função dedicada a monitorar erros, vieses e alucinações dos modelos. O nome incomum, mais próximo da curadoria de museus do que da administração tributária, talvez seja o que menos importa aqui.

O que realmente merece atenção é o desenho institucional que emerge desse conjunto de normas.

Publicada após a apresentação do subsecretário Juliano Neves na ONU, a política da Receita estabelece que decisões administrativas continuam sendo competência exclusiva de servidores públicos. Nenhum sistema de IA pode condicionar, substituir ou vincular o exercício das funções legais. A máquina apoia, mas não decide — e o controle humano funciona como última barreira contra decisões automatizadas injustas.

Há, no entanto, uma camada mais profunda nessa arquitetura. A política proíbe expressamente o uso de IA para vigilância em massa, pontuação social e manipulação subliminar. Também veda que fornecedores utilizem dados tributários de cidadãos brasileiros para treinar modelos comerciais. Soberania de dados, aqui, não é palavra vazia: ambientes externos só são admitidos após análise técnica rigorosa, e a preferência é por governança integral sobre armazenamento, processamento e infraestrutura.

O gestor público que usar IA de forma inadequada responde disciplinarmente. Não como “falha sistêmica” — como conduta pessoal.

Esse movimento da Receita não acontece no vácuo. Em abril, o Ministério da Gestão e Inovação (MGI) publicou a Portaria nº 3.485/2026, instituindo sua própria política de governança de IA, com princípios de transparência, supervisão humana e capacitação contínua de servidores. Na Câmara, o PL 4358/2025, do deputado Romero Rodrigues, tramita apensado ao PL 2338/2023 e propõe classificação de risco em baixo, médio e alto, com exigências proporcionais.

O Brasil parece caminhar para um sistema de regulação em camadas: cada órgão edita suas normas, enquanto o Legislativo tenta costurar um marco geral.

Mas um problema incomoda.

Por mais bem-intencionada que seja, a política da Receita esbarra no princípio republicano da publicidade. Sistemas de IA no setor público operam, em boa medida, como caixas-pretas. Mesmo com auditoria e explicabilidade previstas, o cidadão comum não tem como saber que critérios um modelo usou para cruzar seus dados, cruzar suas declarações ou sugerir uma fiscalização. A assimetria informacional entre o Estado que sabe tudo sobre você e o cidadão que não sabe nada sobre como o Estado decide é um problema de democracia, não de tecnologia.

O “curador de alucinações” cuida das alucinações dos modelos. Mas quem cuida das alucinações de poder?

A política da Receita também levanta uma questão sobre responsabilidade. Ao afirmar que o mau uso configura “responsabilidade disciplinar individual”, ela coloca o ônus no servidor — que pode não ter conhecimento técnico para discernir quando um modelo está operando fora dos parâmetros éticos. A capacitação continuada que a própria política prevê será suficiente para formar servidores capazes de questionar um sistema que lhes parece autoridade técnica?

Talvez o avanço mais significativo não esteja no que a política permite, mas no que ela veda. Proibir vigilância em massa, classificação social e uso de dados públicos para treinar modelos privados são barreiras concretas contra derivas autoritárias. A Receita, que detém um dos maiores volumes de dados sensíveis do Estado brasileiro, ao menos reconhece que com grandes dados vêm grandes responsabilidades.

A pergunta que fica é se esses controles internos, por mais robustos que pareçam, serão capazes de resistir a pressões políticas por “eficiência a qualquer custo” — aquela velha tentação de trocar direitos por desempenho.

Entre o curador de alucinações e a proibição de vigilância em massa, o Brasil ensaia um modelo de regulação de IA que merece atenção. Mas ensaio não é peça estreia. Falta saber se a plateia — a sociedade civil, o Judiciário, o legislador — vai acompanhar o roteiro, ou se o palco será tomado por atores que a política tentou, justamente, manter fora do palco.

A técnica, no fim das contas, deve servir ao humano. Mas, na administração pública, “servir ao humano” significa também servir ao cidadão que paga imposto e tem direito a saber. A transparência algorítmica não é um extra. É condição de legitimidade do próprio Estado democrático.

Compartilhar: WhatsApp