
Brasília concentra a política pública de IA, mas o gargalo real está na infraestrutura computacional, nos dados e na execução industrial.
IA em 2026: Brasil tem plano, mas falta capacidade instalada
Em 2026, o teste da IA brasileira é material: compute, dados, equipes e contratos funcionando quando governo, universidade ou empresa precisarem rodar sistemas críticos sem depender integralmente de API estrangeira.
IA em 2026: Brasil tem plano, mas falta capacidade instalada
O Brasil não está fora da corrida da inteligência artificial por falta de discurso. Em 2026, há seminários, grupos de trabalho, planos nacionais, linhas de crédito, pesquisadores competentes e empresas tentando construir produto. O déficit está em uma camada menos fotogênica: capacidade instalada.
Capacidade instalada é a diferença entre dizer que o país quer autonomia operacional em tecnologia e conseguir operar, com custo previsível, um modelo sensível em infraestrutura sob controle brasileiro. É a diferença entre anunciar um plano e ter GPU disponível; entre citar dados públicos e entregar corpus limpo; entre falar em inovação e comprar resultado técnico; entre formar bons pesquisadores e manter uma equipe permanente capaz de treinar, ajustar, servir e auditar modelos.
O Plano Brasileiro de Inteligência Artificial coloca cerca de R$ 23 bilhões na mesa até 2028. Na divisão oficial do PBIA, infraestrutura e desenvolvimento de IA ficam com R$ 5,79 bilhões; inovação empresarial, com R$ 13,79 bilhões; regulação e governança, com R$ 103,25 milhões. BNDES e Finep também informaram R$ 5,4 bilhões aprovados em crédito e equity para inteligência artificial entre janeiro de 2023 e setembro de 2025.
Esse dinheiro importa. A questão é outra: que parte dele vira sistema funcionando?
O teste não é quantos documentos o Brasil publicou sobre IA. É que capacidade técnica está disponível quando a política pública precisa sair do papel.
O teste da segunda-feira
Uma política séria de IA precisa passar por um teste simples. Na segunda-feira de manhã, o Brasil consegue dizer:
- quantas GPUs modernas estão disponíveis para projetos nacionais críticos;
- qual fila de uso governa essa infraestrutura;
- qual rede, storage e política de checkpoint sustentam os treinamentos;
- qual corpus de português brasileiro está limpo, licenciado, versionado e auditável;
- qual equipe responde por custo por token, latência, segurança e desempenho por domínio;
- qual órgão público já substituiu piloto por rotina mensurável.
Sem essas respostas, o país tem agenda. Não tem, ainda, capacidade.
Esse ponto é decisivo porque IA não é apenas software. A geração atual de modelos é uma combinação de chip, energia, refrigeração, data center, rede, dados, biblioteca, engenharia distribuída, produto, auditoria e compra recorrente. Um país que controla só a camada de uso fica dependente de preço, contrato, roadmap, política de acesso e disponibilidade externa.
O mundo acelerou
Segundo o AI Index 2026, de Stanford, a disputa global entrou em fase industrial. O relatório registra que mais de 90% dos modelos frontier notáveis produzidos em 2025 vieram da indústria. Também aponta que a lacuna de desempenho entre Estados Unidos e China praticamente fechou: em março de 2026, o melhor modelo americano aparecia apenas 2,7% à frente do melhor modelo chinês na comparação citada pelo relatório.
O capítulo de pesquisa e desenvolvimento do mesmo levantamento informa que a capacidade global de computação para IA cresceu 3,3 vezes ao ano desde 2022 e chegou a 17,1 milhões de equivalentes H100. A infraestrutura física acompanha essa concentração: os Estados Unidos hospedam 5.427 data centers e uma única fabricante taiwanesa, a TSMC, aparece como peça central na fabricação dos chips de ponta usados nesses centros.
Esse é o ambiente real. Não é uma competição de manifestos. É uma disputa por planta industrial de computação, cadeia de suprimento, energia, talento e dados.
O caso DeepSeek-V3 ajuda a dimensionar a escala. Segundo o relatório técnico do DeepSeek-V3, o modelo tem 671 bilhões de parâmetros totais, 37 bilhões ativados por token, 14,8 trilhões de tokens de pré-treinamento e 2,788 milhões de horas de GPU H800 para o treinamento completo. Mesmo quando a engenharia chinesa reduz custo e aumenta eficiência, ela parte de um chão industrial que o Brasil ainda não possui em escala: hardware, equipe, experiência acumulada, pipeline de dados e disciplina operacional.
O Santos Dumont é importante, mas não resolve tudo
O Brasil tem infraestrutura científica relevante. O Santos Dumont, do LNCC, aparece no TOP500 com atualização baseada em BullSequana XH3000, Grace Hopper Superchip, NVIDIA GH200, InfiniBand NDR200, 68.064 cores e pico teórico de 20,256 petaflops. O próprio LNCC já destacava a máquina como suporte a centenas de projetos em clima, saúde, petróleo, genômica e modelagem computacional.
Isso precisa ser valorizado. Também precisa ser colocado no lugar certo.
Supercomputação científica não é automaticamente uma fábrica nacional de modelos de linguagem. O treinamento e a operação de LLMs exigem disponibilidade prolongada de GPUs modernas, interconexão adequada, stack de treinamento, dados curados, engenharia de paralelismo, monitoramento, recuperação de falhas e equipe com experiência de escala. FLOP bruto ajuda, mas não substitui o sistema inteiro.
O erro brasileiro seria tratar qualquer supercomputador como resposta total ao problema. O acerto seria integrar HPC, nuvem, data centers, laboratórios públicos, universidades e empresas em uma malha com fila de uso, orçamento recorrente e metas públicas.
O gargalo não é só GPU
Comprar placa é necessário. Reduzir IA a placa é erro.
O primeiro gargalo é computação. GPU moderna é cara, escassa e geopoliticamente disputada. O Brasil não fabrica GPU de ponta, não controla HBM, não domina a cadeia de interconexão de clusters frontier e compra tarde em um mercado onde quem compra tarde paga mais e recebe depois.
O segundo gargalo é dado. O país tem um patrimônio textual enorme: Diário Oficial, legislação, jurisprudência, compras públicas, bases de saúde, educação, clima, agro, documentos históricos, português brasileiro real. Na prática, muito disso aparece em PDF ruim, OCR quebrado, planilha instável, metadado fraco e licença confusa. O Brasil tem matéria-prima. Falta refinaria de dados.
O terceiro gargalo é engenharia de operação. O país forma pesquisadores capazes. O que falta em escala é gente paga para transformar paper em sistema: manter cluster, reduzir custo de inferência, depurar treinamento distribuído, medir regressão, adaptar modelo para português jurídico, servir milhões de consultas e responder quando uma atualização piora o desempenho.
O quarto gargalo é compra pública. O Estado brasileiro ainda compra tecnologia como se problema incerto pudesse ser resolvido por escopo fechado, documentação abundante e terceirização da inteligência técnica. Em IA, esse vício destrói valor. O contrato precisa comprar resultado: redução de fila, queda de custo por processo, precisão por domínio, latência, auditoria, segurança e comparação com baseline.
O quinto gargalo é a troca de execução por governança simbólica. Regulação é necessária. Segurança também. Mas quando a energia política se concentra em princípios gerais e pouco avança na entrega de infraestrutura, dados e equipes, a governança vira substituto emocional para capacidade.
O que o Brasil não deveria fazer
O país não deveria gastar os próximos anos tentando provar soberania com um modelo frontier treinado do zero apenas por prestígio. Esse pode ser um projeto válido em algum momento, se houver base material, equipe e razão estratégica. Como prioridade única, é uma aposta cara e frágil.
Também não deveria transformar o PBIA em carteira dispersa de consultorias, pilotos, eventos e editais sem continuidade. Um ecossistema de IA não amadurece por foto de lançamento. Amadurece quando infraestrutura é usada, dados são versionados, modelos são comparados, erros são publicados e compradores públicos aprendem a contratar desempenho.
Outro erro seria escolher dependência única. Parcerias com Estados Unidos, China, Europa ou empresas globais podem acelerar o Brasil. Dependência opaca disfarçada de cooperação apenas muda o nome da subordinação.
A rota realista
O Brasil pode sair do atraso se abandonar a fantasia do salto retórico e trabalhar por acumulação de capacidade.
Primeiro: criar uma camada de inferência nacional para governo, pesquisa e áreas sensíveis. Nem todo modelo precisa ser treinado do zero no país, mas usos críticos precisam rodar em infraestrutura controlada, com logs, auditoria, custo previsível e política clara para dados sensíveis.
Segundo: financiar fine-tuning e pós-treinamento em português brasileiro. Modelos abertos já oferecem base suficiente para aplicações relevantes. O ganho nacional está no domínio: português real, direito brasileiro, SUS, educação básica, agroclima, compras públicas, fiscalização, atendimento e ciência aplicada.
Terceiro: publicar datasets como infraestrutura pública. O país precisa de corpus público limpo, licenciado, versionado, deduplicado e acompanhado de benchmarks. Dado público bruto não basta. Dado público precisa virar ativo técnico.
Quarto: montar equipes permanentes de engenharia de modelos. Bolsas ajudam, mas não substituem carreira técnica. O Brasil precisa de gente responsável por custo por token, latência, segurança, avaliação, serving, regressão, documentação e operação.
Quinto: mudar a compra pública. Cada edital de IA deveria nascer com baseline, métrica, auditoria, critério de encerramento e obrigação de publicar resultado mensurável quando não houver sigilo. Sem isso, IA vira uma nova embalagem para contrato antigo.
Sexto: separar soberania de estatização. Capacidade nacional pode envolver laboratório público, universidade, empresa privada, startup, estatal e parceria internacional. O ponto não é que tudo seja estatal. O ponto é que o Brasil consiga controlar usos críticos, auditar modelos, preservar dados e negociar de uma posição menos dependente.
O que deveria existir em 12 meses
Um programa brasileiro de IA que queira ser levado a sério deveria entregar, em um ano, pelo menos cinco resultados concretos:
- Um cluster nacional de inferência para governo e pesquisa, com fila pública de uso, custo por token medido e regras claras para dados sensíveis.
- Um corpus de português brasileiro versionado, com licença, governança, remoção de duplicatas, metadados e benchmarks associados.
- Cinco modelos especializados abertos ou auditáveis em saúde, direito, educação, agro e atendimento público.
- Um painel público de execução do PBIA mostrando dinheiro comprometido, infraestrutura instalada, projetos em produção e resultados por métrica.
- Um protocolo de compras públicas de IA baseado em desempenho, não em horas de consultoria ou promessa genérica.
Nada disso exige que o Brasil vença a corrida global de modelos frontier em 2026. Exige uma coisa mais difícil para a cultura administrativa nacional: transformar plano em rotina.
A escolha
O Brasil pode continuar se apresentando como futuro usuário sofisticado de plataformas alheias. Nesse caminho, terá chatbot em secretaria, resumo automático em tribunal, API estrangeira em produto nacional e discurso de soberania em evento público. A camada decisiva continuará fora: modelo, chip, nuvem, framework, custo, atualização e roadmap.
Ou pode construir uma estratégia menos vistosa e mais séria: compute controlado, dados nacionais, modelos menores e úteis, equipe permanente, avaliação aberta e compra pública com métrica.
A segunda opção não produz manchete tão grande quanto "supercomputador top 5" ou "modelo brasileiro rival do GPT". Produz capacidade.
E capacidade, na economia da inteligência artificial, é a diferença entre participar da história e apenas pagar assinatura para assistir.
Perguntas Frequentes
- O Brasil precisa treinar um modelo frontier do zero para ter soberania em IA?
- Não necessariamente. Soberania começa por capacidade controlada de inferência, dados nacionais bem curados, modelos especializados e contratos auditáveis. Treinar do zero pode ser útil em alguns casos, mas não deve virar vaidade estatal sem base industrial.
- O Plano Brasileiro de Inteligência Artificial resolve o gargalo sozinho?
- O PBIA é uma moldura relevante e prevê cerca de R$ 23 bilhões até 2028. Ele só vira capacidade nacional se entregar infraestrutura computacional, corpus de dados, equipes permanentes, modelos auditáveis e usos públicos mensuráveis.
- Qual é a prioridade prática para os próximos 12 meses?
- Criar capacidade nacional de inferência para governo e pesquisa, publicar um corpus versionado de português brasileiro e financiar modelos menores, especializados e baratos de operar em áreas como saúde, direito, educação, agro e serviço público.
Receba o Mirante no seu email
As principais notícias do dia, curadas por inteligência artificial, direto na sua caixa de entrada.
Leia também

R$ 1,8 bilhão, nenhum centro de IA e os auditores chegaram antes dos reguladores
Brasília abriga todos os órgãos que deveriam liderar a revolução da IA no Brasil. O Centro Nacional prometido para o ano passado não tem nem cronograma. O TCU já está auditando.

Quem controla a IA que governa Brasília? A soberania digital que o Brasil ainda não tem
TCU, CGU e GDF já usam IA estrangeira para decisões públicas. O Brasil não tem chip próprio, data center soberano nem modelo nacional em produção. Quem governa a IA que governa o país?

O PL 2338 atravessou o Senado, dividiu o mercado e fez de Brasília o campo de batalha da IA no Brasil
Brasília concentra todos os órgãos que decidem o futuro da IA no Brasil. O PL 2338 criou categorias de risco, exigiu auditorias e dividiu o mercado entre quem aplaude e quem teme a burocracia.