
Lula sanciona marco da IA: nasce a ANIA, mais uma autarquia federal
Marco da IA cria mais uma agência federal e pode custar R$ 200 milhões ao contribuinte
O presidente sancionou o marco regulatório da inteligência artificial. A nova lei cria a ANIA — mais uma autarquia federal num país que já sustenta 186 órgãos da administração direta e indireta. O custo estimado ultrapassa R$ 200 milhões nos dois primeiros anos.
Marco da IA cria mais uma agência federal e pode custar R$ 200 milhões ao contribuinte
O Brasil tem agora uma Autoridade Nacional de Inteligência Artificial. A ANIA nasce como autarquia especial, vinculada ao Ministério da Ciência, Tecnologia e Inovações, com autonomia técnica, financeira e administrativa. Nos dois primeiros anos de operação, o governo estima gastar R$ 200 milhões para montar a estrutura — sede, servidores concursados, equipamentos, sistemas, consultorias internacionais. O dinheiro sai do Tesouro Nacional. A conta, como sempre, chega ao contribuinte.
O presidente Lula sancionou o Projeto de Lei 2.338/2023 em janeiro deste ano, após três anos de tramitação no Congresso. A cerimônia reuniu ministros, senadores, representantes da indústria e o presidente do Supremo Tribunal Federal. A foto oficial ocupou portais. Os discursos celebraram o Brasil como "referência em governança digital". Ninguém mencionou o custo.
O que a lei exige
O marco regulatório brasileiro de inteligência artificial estabelece quatro pilares obrigatórios para qualquer empresa ou órgão público que desenvolva ou utilize sistemas de IA.
Primeiro: rotulagem. Todo conteúdo gerado por inteligência artificial — texto, imagem, áudio, vídeo — deve ser identificado como tal. O usuário precisa saber que está interagindo com uma máquina. Multa para quem descumprir: até 2% do faturamento bruto, limitada a R$ 50 milhões por infração.
Segundo: auditoria de viés. Sistemas de IA classificados como de alto risco devem passar por auditorias periódicas para identificar discriminação algorítmica. Raça, gênero, idade, orientação sexual, deficiência — qualquer viés sistemático precisa ser documentado e corrigido. A empresa paga a auditoria. O auditor é credenciado pela ANIA.
Terceiro: supervisão humana. Decisões de alto impacto — crédito, saúde, segurança pública, contratação de pessoal, acesso a serviços essenciais — não podem ser tomadas exclusivamente por algoritmos. Deve haver um humano no circuito capaz de revisar, contestar e reverter a decisão automatizada.
Quarto: avaliação de impacto. Antes de colocar um sistema de alto risco em produção, a organização deve realizar uma avaliação de impacto algorítmico. O documento fica à disposição da ANIA e pode ser requisitado a qualquer momento.
São exigências razoáveis? Talvez. São exigências que precisavam de uma autarquia inteira para funcionar? Essa é a pergunta que o Congresso não fez.
Mais um órgão num país de 186 órgãos
O Brasil tem 186 órgãos na administração direta e indireta federal, segundo o painel de governança do Tribunal de Contas da União. São ministérios, autarquias, fundações, empresas públicas, sociedades de economia mista, agências reguladoras. A ANPD — Autoridade Nacional de Proteção de Dados — já existia desde 2020 para cuidar da Lei Geral de Proteção de Dados. A ANIA nasce ao lado dela.
A diferença é o escopo. A ANPD cuida de dados pessoais. A ANIA cuida de algoritmos. Mas algoritmos processam dados pessoais. E dados pessoais alimentam algoritmos. A fronteira entre as duas autarquias é, na prática, uma zona cinzenta que advogados e lobistas vão explorar por anos.
A sobreposição de competências é previsível. Um sistema de IA que processa dados de saúde estará sob jurisdição da ANPD (dados pessoais sensíveis), da ANIA (sistema de alto risco), da Anvisa (se envolver diagnóstico clínico) e do Conselho Federal de Medicina (se substituir ou auxiliar médicos). Quatro reguladores para um único software. O empreendedor que quiser lançar uma startup de IA na saúde vai precisar de mais advogados do que programadores.
Não é hipérbole. É aritmética regulatória.
O que fazem Estados Unidos e China
Os Estados Unidos não têm uma agência reguladora de inteligência artificial. A Casa Branca emitiu a Ordem Executiva 14.110 em outubro de 2023, sob Biden, estabelecendo diretrizes para o desenvolvimento seguro de IA. Trump revogou boa parte das restrições no início do ano passado. A abordagem americana atual é setorial: cada agência existente — Comissão Federal de Comércio, Administração de Alimentos e Medicamentos, Departamento de Defesa — regula a IA dentro de sua jurisdição. Sem órgão centralizado. Sem autarquia nova.
A China também não tem uma agência dedicada. A Administração do Ciberespaço da China, criada em 2014, absorveu a regulação de algoritmos, deepfakes e IA generativa. Regulamentos específicos foram emitidos desde 2021 — sobre recomendação algorítmica, sobre síntese profunda, sobre IA generativa — mas sempre sob o guarda-chuva de um órgão já existente.
A União Europeia aprovou o AI Act em 2024, a legislação mais abrangente do mundo sobre inteligência artificial. Mas o regulador designado é o AI Office, uma divisão da Comissão Europeia — não uma autarquia independente. A fiscalização é descentralizada nos Estados-membros, cada um usando suas autoridades de proteção de dados já existentes.
O Brasil escolheu o caminho mais caro: criar um órgão do zero, com orçamento próprio, quadro de pessoal exclusivo e sede em Brasília. Num país onde a ANPD — menor e mais focada — levou quatro anos para publicar a regulamentação da LGPD, a expectativa de que a ANIA esteja operacional antes de 2028 é otimismo burocrático.
R$ 200 milhões para começar
O custo estimado de R$ 200 milhões nos dois primeiros anos não é um número arbitrário. O governo federal encaminhou ao Congresso uma nota técnica do Ministério da Ciência e Tecnologia detalhando a projeção. A maior parcela — cerca de R$ 80 milhões — vai para pessoal: concurso público para analistas, especialistas em tecnologia, advogados, gestores. Uma autarquia federal precisa de no mínimo 200 servidores para operar com eficácia, segundo padrões do TCU. O salário inicial de um analista de regulação federal gira em torno de R$ 16 mil. Multiplique por encargos, benefícios, auxílio-moradia em Brasília. Os números escalam rápido.
O segundo bloco — cerca de R$ 50 milhões — vai para infraestrutura tecnológica. Sistemas de cadastro, plataformas de auditoria, bancos de dados, interoperabilidade com outros órgãos. A experiência brasileira com grandes projetos de tecnologia governamental não é animadora. O sistema e-Social custou mais de R$ 1 bilhão e levou uma década para estabilizar. O sistema do SUS — o e-SUS Notifica — colapsou durante a pandemia.
O terceiro bloco — cerca de R$ 40 milhões — vai para cooperação internacional, participação em fóruns, contratação de consultorias especializadas. A ANIA precisa conversar com reguladores de outros países, participar de grupos de trabalho na OCDE, na ONU, na União Internacional de Telecomunicações.
O restante cobre sede, mobiliário, deslocamentos, treinamento e a comunicação institucional que toda autarquia brasileira considera essencial: logo, site, redes sociais, assessoria de imprensa.
O contribuinte paga. O empreendedor paga. A startup que mal começou a faturar paga a auditoria de viés. A empresa média paga a avaliação de impacto. O desenvolvedor solo que publica um modelo de linguagem no GitHub — ainda não se sabe se paga, porque a regulamentação infralegal vai levar anos.
Quem ganha com a ANIA
Há beneficiários claros. Escritórios de advocacia especializados em tecnologia vão faturar com consultoria de conformidade regulatória. Consultorias de auditoria algorítmica — um mercado que mal existia no Brasil — ganham reserva de mercado garantida por lei. Servidores públicos ganham mais um órgão com concurso, estabilidade e salários acima da média nacional. Acadêmicos ganham mais um espaço para publicar pareceres técnicos e ocupar cargos de confiança.
E as Big Techs? Google, Microsoft, Meta, Amazon, OpenAI, Anthropic — empresas que faturam centenas de bilhões de dólares — vão contratar um departamento de compliance para o Brasil, assim como fizeram com a LGPD, e seguir operando. O custo regulatório é irrelevante para quem tem capitalização trilionária.
Quem perde? A empresa brasileira de médio porte que tenta competir. A startup de Recife ou Florianópolis que desenvolve um modelo de linguagem em português e agora precisa arcar com auditoria, avaliação de impacto e registro na ANIA antes de colocar o produto no mercado. O custo de conformidade é fixo — não escala com o faturamento. Para a Big Tech, é centavo. Para a startup brasileira, pode ser a diferença entre lançar e fechar.
A assimetria regulatória favorece os incumbentes. Sempre favorece.
O argumento a favor
Há argumentos legítimos para a regulação. Algoritmos que decidem sobre crédito, saúde e liberdade precisam de supervisão. A discriminação algorítmica é real — sistemas de reconhecimento facial falham mais com rostos negros, algoritmos de crédito penalizam mulheres, filtros de currículo eliminam candidatos por CEP. Sem regulação, o cidadão não tem recurso.
A rotulagem de conteúdo gerado por IA é uma medida de transparência mínima. Deepfakes políticos já circularam em eleições brasileiras. A desinformação automatizada em escala exige algum mecanismo de rastreabilidade.
A supervisão humana em decisões de alto risco é um princípio de justiça básica: ninguém deve ter o crédito negado, o benefício cortado ou a liberdade cerceada sem que um ser humano assine embaixo.
Esses argumentos procedem. A questão não é se regular — é como regular sem criar mais um dreno no orçamento público e mais uma barreira para a inovação nacional.
O efeito cascata nos estados
A ANIA é federal, mas o impacto é federativo. Governos estaduais que adotam inteligência artificial — e vários já adotam — terão que se adequar às normas da nova autarquia. O Governo do Distrito Federal usa chatbots de atendimento ao cidadão. O Estado de São Paulo implementou IA para triagem de processos no Tribunal de Justiça. O Rio Grande do Sul usa algoritmos para prever demanda em unidades de saúde. Minas Gerais testa reconhecimento facial em transporte público.
Cada um desses sistemas, sob a nova lei, é classificável como "alto risco". Cada um precisa de avaliação de impacto algorítmico. Cada um precisa de auditoria de viés. E quem fiscaliza? A ANIA — que ainda não existe na prática. Enquanto a autarquia não estiver operacional, há um vácuo regulatório que cria insegurança jurídica tanto para quem usa quanto para quem desenvolve.
O cenário mais provável: estados e municípios vão continuar usando IA sem conformidade, porque não há fiscalização. A lei existe no papel. A realidade segue no improviso. Quando a ANIA finalmente operar, terá um passivo acumulado de anos de uso não regulamentado para resolver — retroativamente, judicialmente, burocraticamente.
É o padrão brasileiro: cria-se a lei, cria-se o órgão, e a realidade se ajusta em décadas.
O lobby que moldou a lei
O Projeto de Lei 2.338/2023 não nasceu num vácuo legislativo. Teve relatoria do senador Rodrigo Pacheco, então presidente do Senado, e recebeu contribuições de mais de 200 entidades em audiências públicas. Entre elas, Google, Microsoft, Meta, IBM, Huawei e a Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação.
As Big Techs não se opuseram à regulação. Apoiaram-na — com ajustes. O lobby corporativo conseguiu suavizar penalidades, dilatar prazos de adaptação e incluir exceções para "inovação". O artigo 14 da lei, que trata de sandboxes regulatórios, permite que empresas testem sistemas de IA de alto risco sob regime especial, com fiscalização reduzida, por até 36 meses. O período coincide com o ciclo de desenvolvimento de novos modelos.
A leitura é direta: grandes empresas escreveram partes da lei que as regula. Não é conspiração — é lobby, legal e documentado. Mas o resultado é uma regulação desenhada para ser tolerável pelas maiores e sufocante para as menores.
A conta que falta
O marco regulatório da inteligência artificial no Brasil é uma lei de 35 artigos que cria uma autarquia, estabelece multas, exige auditorias e promete proteger o cidadão. As intenções são defensáveis. O desenho institucional, nem tanto.
O contribuinte brasileiro já sustenta a Anatel, a Anvisa, a ANP, a ANAC, a Antaq, a ANTT, a ANS, a ANA, a Ancine, a ANM, a ANPD — onze agências reguladoras. A ANIA será a décima segunda. Cada uma com sede, diretoria colegiada, ouvidoria, corregedoria, assessoria de comunicação e orçamento próprio. O custo administrativo fixo de uma agência reguladora brasileira gira em torno de R$ 80 milhões anuais — antes de regular qualquer coisa.
O Brasil poderia ter dado à ANPD — que já regula dados pessoais — a competência adicional sobre algoritmos. Poderia ter seguido o modelo americano de regulação setorial, sem criar órgão novo. Poderia ter optado pelo modelo europeu de divisão dentro de estrutura existente.
Escolheu criar a ANIA. Mais um órgão, mais um orçamento, mais um concurso, mais um prédio em Brasília, mais uma camada de burocracia entre a ideia e o produto.
Enquanto o Brasil monta autarquia, os Estados Unidos treinam modelos de fronteira. A China publica mais artigos científicos sobre IA do que qualquer outro país. Israel forma engenheiros de machine learning no exército. A Índia exporta desenvolvedores.
O Brasil regula.
A corrida global por inteligência artificial não espera regulador. Cada mês que passa, os modelos de fronteira ficam mais poderosos, os custos de treinamento caem, as aplicações se multiplicam. A janela para o Brasil se posicionar como produtor — e não apenas consumidor — de IA está se fechando. Uma autarquia que leve quatro anos para operar plenamente chega ao jogo quando as regras já terão mudado três vezes.
A comparação com a ANPD é instrutiva. Criada em 2018, a autoridade de proteção de dados só publicou a regulamentação completa da LGPD em 2024 — seis anos depois. Nesse intervalo, empresas operaram sem orientação clara, cidadãos não tinham a quem recorrer, e o Brasil ficou fora das listas internacionais de países com proteção de dados efetiva. A ANIA promete ser diferente. Promessas, porém, não compilam código.
A intenção é nobre. O instrumento é caro. E a história recente — do e-Social à regulamentação tardia da LGPD, da Anvisa à Anatel — sugere que o contribuinte vai pagar pelos R$ 200 milhões e ainda vai esperar anos até que a ANIA funcione. Se funcionar.
O marco da inteligência artificial protege o cidadão? Em tese, sim. Cria mais burocracia? Na prática, sem dúvida. E num país com 186 órgãos federais, a pergunta que ninguém quer responder é simples: precisávamos do 187º?
Receba o Mirante no seu email
As principais notícias do dia, curadas por inteligência artificial, direto na sua caixa de entrada.