
No Software 2.0, dados, métricas e treinamento passam a ocupar o lugar que antes era dominado apenas por código explícito.
Software 2.0: quando programar vira treinar
A mudança mais importante da inteligência artificial não é a interface de conversa. É a troca silenciosa do lugar onde o software nasce: menos regra escrita à mão, mais comportamento aprendido por otimização.
O software antigo tinha uma virtude confortável: alguém escrevia uma regra, outro alguém lia a regra, o computador obedecia. Podia dar errado, claro. Mas o erro costumava morar em algum lugar visível: uma condição mal escrita, uma variável trocada, uma exceção esquecida. O mundo do Software 1.0 era o mundo da instrução explícita.
A tese de Software 2.0, formulada por Andrej Karpathy em 2017, troca o centro da cena. Em muitos problemas valiosos, já não sabemos escrever a regra. Sabemos, no máximo, mostrar exemplos do comportamento desejado, escolher uma arquitetura, definir uma métrica e deixar a otimização procurar uma solução. O programa final não aparece como um arquivo legível. Aparece como pesos de uma rede neural.
Essa distinção parece acadêmica até chegar ao chão da operação. Reconhecer fala, traduzir texto, dirigir um carro, classificar imagem médica, recomendar conteúdo, detectar fraude, resumir documento jurídico: em todos esses casos, a empresa não escreve todas as regras. Ela treina um sistema para produzir comportamento aceitável em uma massa enorme de casos.
O código continua existindo. Só deixou de ser o único lugar onde mora a inteligência do produto.
O novo programador
No Software 1.0, o programador edita instruções. No Software 2.0, edita condições de aprendizado. Isso muda a profissão mais do que parece. A tarefa deixa de ser apenas escrever if, for, endpoint e banco. Passa a incluir coleta de exemplos, limpeza de dado, escolha de métrica, avaliação de falha rara, curadoria de rótulo, desenho de teste e monitoramento em produção.
O programador continua indispensável, mas sua autoridade muda de lugar. Ele não é só autor da regra. É arquiteto do ambiente em que a regra será descoberta.
Por isso o dado vira código. Um exemplo rotulado errado é um bug. Um dataset enviesado é uma biblioteca comprometida. Uma métrica ruim é um compilador mentiroso. Uma avaliação pequena demais é teste unitário que passa e sistema que quebra na rua.
Essa é a parte que muita empresa ainda não entendeu. Ela compra modelo, chama de IA e imagina que instalou futuro. Não instalou. Instalou uma dependência estatística. Sem engenharia de avaliação, sem dados próprios e sem ciclo de melhoria, a IA vira um demo caro.
A força da ideia
O motivo de Software 2.0 ter vencido em tantos domínios é simples: há problemas em que é mais fácil reconhecer a resposta certa do que escrever a regra que leva até ela.
Ninguém escreveu manualmente todos os padrões que fazem uma rede reconhecer um cachorro em imagem ruim, uma frase ambígua em tradução ou uma jogada forte no Go. O sistema aprendeu estruturas internas a partir de exemplos, perdas e treino. O artigo de 2017 já apontava isso: visão, fala, tradução, jogos e até índices de banco de dados estavam sendo empurrados para uma lógica em que a otimização substitui parte da programação artesanal.
O caso de AlphaGo Zero continua sendo didático. O sistema não herdou séculos de comentário humano sobre Go como regra fixa. Jogou contra si mesmo e transformou resultado em aprendizado. O mesmo movimento aparece no Transformer, proposto em Attention Is All You Need: menos engenharia manual de sequência, mais arquitetura capaz de aprender relação entre partes de um texto em escala.
O ponto não é romantizar rede neural. É reconhecer uma troca de regime. Quando o comportamento desejado pode ser medido repetidamente, e quando escrever a regra é pior do que treinar a regra, o Software 2.0 entra.
O preço
O preço é alto. O Software 2.0 funciona melhor em muitos casos, mas explica pior. Um sistema clássico pode ter bug claro. Um modelo pode errar com confiança, acertar por motivo ruim, falhar numa exceção estatisticamente rara e parecer normal no painel geral.
Essa opacidade exige outra disciplina. Não basta perguntar se o modelo acerta em média. É preciso perguntar onde erra, para quem erra, em que condição erra, quanto custa errar e se o erro muda quando o mundo muda.
Também é preciso abandonar a fantasia de que modelo bom elimina produto ruim. Um classificador excelente dentro de um fluxo mal desenhado só acelera confusão. Um LLM forte dentro de uma operação sem versionamento, sem logs e sem revisão cria uma fábrica de aparência. Responde bonito, mas ninguém sabe quando degradou.
O Software 2.0 não reduz engenharia. Ele aumenta a exigência.
A falsa facilidade
A parte sedutora desse paradigma é que ele parece tirar peso do humano. Em vez de escrever uma solução completa, junta-se dado, aperta-se treino, acompanha-se métrica e espera-se que o modelo encontre um caminho. A frase é bonita. A prática é brutal.
Treinar não é delegar pensamento. É deslocar o pensamento para outro tipo de objeto.
Um dataset precisa de fronteira. O que entra? O que fica fora? Que exemplo representa comportamento normal? Que exemplo representa exceção crítica? Qual rótulo é confiável? Qual rótulo foi produzido por pressa? Qual classe está sobrando? Qual está invisível?
Essas perguntas são engenharia. Só que a ferramenta deixou de ser apenas editor de código e virou lupa sobre distribuição.
A falsa facilidade também aparece na avaliação. Um modelo pode subir dois pontos numa métrica geral e piorar exatamente no caso que importa. Pode melhorar em benchmark público e degradar no dado interno. Pode acertar em textos limpos e se perder em documento escaneado, fala regional, imagem escura ou formulário mal preenchido.
No Software 1.0, uma suíte de testes ruim já era perigosa. No Software 2.0, é fatal. A métrica vira bússola; se ela aponta errado, todo o treinamento melhora na direção errada.
O produto como laboratório
O produto sério de IA precisa funcionar como laboratório permanente. Cada versão do modelo é uma hipótese. Cada lote de dados é material experimental. Cada falha em produção é amostra. Cada correção precisa voltar ao ciclo como novo exemplo, novo teste ou nova métrica.
Isso vale para jornalismo, saúde, direito, educação, governo e indústria. Um sistema que resume processo judicial não pode ser avaliado só por fluência. Precisa ser avaliado por fidelidade, omissão, citação, alucinação, preservação de data e capacidade de dizer que não sabe. Um sistema que prioriza atendimento médico não pode ser medido só por velocidade. Precisa ser medido por consequência.
O Software 2.0 obriga a empresa a escrever menos regra e documentar mais realidade.
Essa é a virada cultural. O ativo não é apenas o modelo. É o ciclo que faz o modelo melhorar sem perder controle: coleta, curadoria, treino, avaliação, deploy, monitoramento e revisão. Quem tem esse ciclo aprende. Quem não tem só troca de fornecedor.
A empresa que entendeu
Uma organização madura deixa de tratar IA como recurso decorativo e passa a tratá-la como parte do sistema produtivo. Isso significa ter versionamento de datasets, histórico de métricas, testes de regressão, avaliação humana amostral, simulação de casos extremos e um mecanismo claro de rollback.
No velho software, deploy ruim derruba servidor. No novo, deploy ruim pode não derrubar nada. Só muda a resposta, piora a recomendação, distorce a triagem, altera uma decisão e segue operando com cara de normalidade.
Esse é o perigo real. Não é a máquina acordar. É o sistema degradar sem barulho.
Por isso o Software 2.0 exige menos fascínio e mais contabilidade. Cada modelo precisa ter entrada, saída, métrica, dono, limite de uso e teste de sanidade. Quem não consegue dizer qual dado mudou, qual métrica caiu e qual grupo foi afetado não tem IA em produção. Tem superstição com GPU.
A ideia central
Software 2.0 não significa que o código acabou. Significa que o código explícito virou moldura. Dentro dela, há comportamento aprendido.
Essa é a frase que separa moda de arquitetura. O produto moderno não é apenas escrito; é treinado. Não é apenas compilado; é avaliado. Não é apenas lançado; é monitorado como organismo estatístico em ambiente mutável.
O programador que só escreve regra fica menor. O programador que entende dado, métrica, sistema, falha e produto fica maior. A empresa que apenas chama API fica dependente. A empresa que constrói ciclo próprio de avaliação cria vantagem.
O próximo salto não será ter IA no site. Será saber treinar, medir e corrigir comportamento melhor que o concorrente. O resto é interface.
Essa é a matéria-prima da próxima década.
Menos encanto com ferramenta. Mais domínio do ciclo.
Igor Morais Vasconcelos é advogado (OAB/DF 35.376), doutorando no IDP e fundador da INTEIA. Pesquisa agentes sintéticos, simulação social e inteligência artificial aplicada a sistemas institucionais.
Perguntas Frequentes
- O que é Software 2.0?
- É a ideia de que parte do software moderno não é escrita diretamente por programadores, mas aprendida por redes neurais treinadas sobre dados e avaliadas por métricas.
- Isso substitui programadores?
- Não. Muda o centro do trabalho: o programador passa a desenhar dados, critérios, testes, interfaces, observabilidade e infraestrutura de treinamento.
- Qual é o risco principal?
- O risco é confundir desempenho estatístico com compreensão. Modelos bons podem falhar de modo estranho, silencioso e difícil de explicar.
Receba o Mirante no seu email
As principais notícias do dia, curadas por inteligência artificial, direto na sua caixa de entrada.