
Vista aérea do BIOTIC, em Granja do Torto: o galpão branco à esquerda abriga o novo data center contratado pelo Serpro para inferência de modelos de linguagem
O data center que nasceu ao lado da UnB vai processar 30% da IA pública do Brasil
A 9 quilômetros do Plano Piloto, encostado ao campus Darcy Ribeiro da Universidade de Brasília, um galpão de concreto cinza começou a zumbir em fevereiro. Lá dentro, 4.200 unidades de processamento gráfico organizadas em corredores quentes e frios fazem o que poucos data centers no Brasil fazem: rodar modelos de linguagem com mais de 10 bilhões de parâmetros em tempo real para órgãos públicos.
A operação começou silenciosa. Sem cerimônia, sem placa inaugurada, sem fita cortada.
No dia 11 de fevereiro de 2026, técnicos do Serpro destravaram o último rack do que internamente chamam apenas de "Sala 3" e ligaram a alimentação. Em menos de uma hora, o sistema de orquestração começou a distribuir requisições do Gov.br, do Receita Federal e do INSS para os 4.200 aceleradores instalados no galpão.
O data center do BIOTIC — Parque Tecnológico Capital Digital, no setor Granja do Torto — não é o maior do Brasil. Está longe disso.
Os complexos da Tecto, em Hortolândia, e da Equinix, em Santana de Parnaíba, têm capacidade instalada várias vezes maior. O que faz dele relevante é outra coisa: é o primeiro data center brasileiro projetado do zero para inferência de modelos de linguagem do setor público.
Por que Brasília e por que agora
A escolha do local não foi acidental. Documentos do Plano Brasileiro de Inteligência Artificial e contratos publicados no Comprasnet mostram que três fatores pesaram.
O primeiro foi a proximidade física com clientes. Mais de 60% das requisições previstas vêm de órgãos federais com sede no DF.
Cada milissegundo de latência economizado na fibra entre Granja do Torto e a Esplanada dos Ministérios significa modelos respondendo mais rápido a cidadãos em consultas reais.
O segundo foi a UnB. O acordo de cooperação assinado em 2025 entre Serpro, FUB e o BIOTIC garante acesso compartilhado a parte da infraestrutura para pesquisas do Departamento de Ciência da Computação e do Laboratório de Aprendizado de Máquina em Aplicações Financeiras.
Estudantes de pós-graduação podem rodar experimentos em janelas ociosas, em troca de relatórios técnicos sobre eficiência energética e otimização de inferência.
O terceiro foi o clima. Brasília tem umidade relativa média anual abaixo de 60% e amplitude térmica favorável.
Isso reduz o consumo de energia em refrigeração — o calcanhar de Aquiles de qualquer data center — em uma faixa estimada entre 12% e 18% comparado a um equivalente instalado em São Paulo ou no Rio.
A engenharia do resfriamento
Quem entra no galpão por uma porta lateral encontra primeiro o vestíbulo de pressão positiva. Dali, uma porta dupla leva ao corredor frio.
O ar entra a 22 graus Celsius, atravessa os racks pela face frontal das placas, sai a 38 graus pelo corredor quente, é puxado por exaustores até as serpentinas de água gelada e volta ao circuito. Não há cabos de cobre expostos, apenas trançados de fibra óptica organizados em bandejas suspensas.
| Especificação | Valor | Comparação | |---|---|---| | GPUs instaladas | 4.200 | Equivalente a 350 servidores HGX | | Capacidade de inferência | 1,8 milhão de tokens/segundo | ~30% da demanda federal projetada para 2027 | | PUE projetado | 1,28 | Média global de data centers: 1,55 | | Consumo elétrico | 6,4 MW | Suficiente para 12 mil residências | | Resfriamento | Água gelada + free cooling | 14% mais eficiente que ar direto | | Redundância elétrica | N+1 | Disponibilidade prevista de 99,98% | | Área útil | 14.200 m² | Menos da metade de um data center hyperscale |
O número que mais interessa aos engenheiros é o PUE — Power Usage Effectiveness — projetado em 1,28. Significa que para cada quilowatt-hora gasto em computação, o complexo gasta apenas 0,28 kWh em tudo o que não é processamento: refrigeração, iluminação, controle de acesso, monitoramento.
A média mundial está em 1,55. O Uptime Institute considera "excelente" qualquer instalação abaixo de 1,40.
Para chegar a esse número o projeto recorreu ao chamado free cooling. Em sete meses do ano, a temperatura externa noturna em Brasília fica abaixo dos 18 graus.
Nesses períodos, o sistema desliga as serpentinas mecânicas e usa o ar externo filtrado para resfriar a água do circuito secundário. O ganho em eficiência aparece principalmente entre maio e setembro, a estação seca.
Quem usa, quem paga, quanto custa
A contratação foi feita em duas etapas. A primeira, de R$ 218 milhões, cobriu obra civil, instalação elétrica, refrigeração e parte dos servidores.
A segunda, de R$ 412 milhões, foi destinada aos aceleradores de processamento gráfico. O Serpro coordenou a aquisição em consórcio com a Dataprev e o Tribunal de Contas da União.
O contrato prevê pagamento por uso, em modelo semelhante ao das nuvens públicas, mas com piso garantido de R$ 38 milhões anuais durante dez anos.
A clientela inicial inclui o Receita Federal, que usa modelos para classificação automática de declarações suspeitas de imposto de renda; o INSS, que pretende rodar análise de pedidos de benefícios em escala; o Ministério da Justiça, que está testando aplicação de IA na triagem de processos administrativos; e o Banco Central, com modelos de detecção de fraude em transações Pix.
A estimativa do MCTI de que o BIOTIC processará 30% da inferência pública federal é uma projeção para 2028 e considera o crescimento esperado da demanda. Hoje, no quarto mês de operação, o número real está em torno de 11%.
Os 19% restantes ainda dependem de migrações que os órgãos contratantes precisam executar.
O efeito sobre o ecossistema local
O data center não vive sozinho. Ao redor dele, no mesmo polígono do BIOTIC, já se instalaram a Peptidus Biotech, a startup que foi finalista do HackBrazil 2026 em Harvard, e três empresas menores que prestam serviço de fine-tuning de modelos abertos.
O parque também passou a receber estagiários da UnB com remuneração paga em parte pelas próprias empresas — um arranjo raro no Brasil.
A presença da infraestrutura reduz a barreira de entrada para quem quer treinar modelos próprios sem depender de provedores estrangeiros. Uma startup que precisaria pagar entre US$ 80 mil e US$ 300 mil por uma rodada de treinamento na nuvem americana consegue agora alugar capacidade ociosa em janelas noturnas e fins de semana por valores entre R$ 60 mil e R$ 180 mil.
A diferença não é apenas cambial: é regulatória. Dados sensíveis processados em território nacional simplificam o cumprimento da Lei Geral de Proteção de Dados.
O que ainda não foi resolvido
A operação em fevereiro foi parcial. Apenas dois dos quatro grandes módulos do galpão estão energizados.
O terceiro deve entrar em operação até julho, e o quarto depende da chegada de equipamentos importados que ainda não receberam licenciamento da Anatel. Há também uma discussão técnica em curso sobre o uso de água: o consumo do circuito de resfriamento, embora reciclado em sistema fechado, exige reposição mensal de aproximadamente 380 mil litros, o que motivou questionamentos da Adasa, agência reguladora de águas do Distrito Federal.
Outra incógnita é a capacidade de atrair talento. O BIOTIC fica afastado do Plano Piloto, e Granja do Torto tem oferta limitada de transporte público.
Os primeiros engenheiros contratados pelo Serpro relatam tempo médio de deslocamento de 50 minutos. A universidade ao lado ajuda — boa parte dos estagiários pega o circular interno da UnB —, mas para profissionais sêniores a distância tem sido fator de hesitação em ofertas salariais.
Mesmo com essas pendências, o galpão de Granja do Torto consolidou um movimento que estava espalhado em planilhas há quase quatro anos. O Brasil decidiu que parte da inferência pública precisa rodar dentro do país.
Brasília se ofereceu para sediar essa decisão. E, pela primeira vez, há fios suficientes para sustentar a promessa.
Score Hipnótico-Editorial
Transparência radical do framework editorial
Avaliação determinística baseada em 12 dimensões científicas
Saiba mais →Receba o Mirante no seu email
As principais notícias do dia, curadas por inteligência artificial, direto na sua caixa de entrada.