Carregando...
Inovação, startups e transformação digital
50 matérias publicadas — Página 4 de 5
O DF é a 4ª cidade em startups no Brasil, o CIIA recebeu R$ 5 milhões para IA no governo e a Peptidus foi finalista em Harvard. Mas o PBIA de R$ 23 bilhões destina apenas 0,4% para regulação — e o Marco Legal da IA segue parado na Câmara.
Brasília concentra todos os órgãos que decidem o futuro da IA no Brasil. O PL 2338 criou categorias de risco, exigiu auditorias e dividiu o mercado entre quem aplaude e quem teme a burocracia.
A Maritaca AI lançou o Sabiá-3 com 94% da performance do GPT-4o em português. API compatível com OpenAI, preço por token menor. O Brasil finalmente produz IA, não só consome.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 contra 88.7% do GPT-4o, custando US$ 0,14 por milhão de tokens. Treinamento custou US$ 5,6 milhões.
Laboratório chinês treinou MoE de 685B parâmetros por US$ 5,6 milhões usando H800 sob embargo. MATH benchmark: 90.2% vs 76.6% do GPT-4o. Código e pesos vazaram antes do release oficial.
Alibaba Cloud solta modelo de código aberto que bate GPT-4o em benchmarks de programação e mira contratos corporativos da Microsoft na China e Ásia
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 usando MoE agressivo e chips Huawei Ascend, custando US$ 5.5 milhões contra US$ 100+ milhões estimados do GPT-4.
DeepSeek libera V3 com 685B parâmetros totais, 37B ativos, treinado em H800 sob embargo. OpenAI antecipa o3-mini para desenvolvedores. A corrida MoE esquenta.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH-500 e custa US$ 5.5M treinar — enquanto GPT-4 custou ~US$ 100M. Arquitetura MoE multi-head latent attention contorna embargo de chips.
Leak de benchmark interno da DeepSeek mostra V3 superando Claude 3.7 Opus em 12.3 pontos no MATH-500. Anthropic chama de 'cherry-picking'; código do teste está no GitHub desde ontem.
Modelo chinês de 671B parâmetros alcança 90.2% no MATH e 92.3% no HumanEval, custando US$ 5.5M para treinar contra estimados US$ 100M+ do GPT-4. Arquitetura MoE com apenas 37B ativos por token.
Google lança Gemini 2.0 Flash Thinking Experimental, modelo que expõe cadeia de raciocínio. 2M tokens de contexto, grátis no AI Studio, mas ainda sem API pública.