O valor de mercado da inferência
O Google está colocando até US$ 40 bilhões na Anthropic. A promessa é de US$ 10 bilhões imediatos, com valuation de US$ 350 bilhões, e mais US$ 30 bilhões se a Anthropic atingir metas de performance. O movimento não é sobre um modelo de IA. É sobre quem controla o chão de fábrica da computação.
Enquanto isso, a Anthropic liberou o Mythos para um grupo restrito de parceiros. O modelo já vazou. O custo de rodar algo desse porte em produção é o verdadeiro gargalo, e o Google está comprando a saída.
Como funciona: a matemática dos 5 gigawatts
A Anthropic já tinha um acordo com Google e Broadcom para acessar 3,5 gigawatts de capacidade baseada em TPU a partir de 2027. Agora, o Google Cloud adiciona mais 5 gigawatts nos próximos cinco anos, com espaço para escalar. Para efeito de comparação, 1 gigawatt é suficiente para alimentar cerca de 800 mil residências americanas. Estamos falando de uma fração significativa da capacidade de um hiperscaler dedicada a um único cliente.
O custo de inferência do Mythos provavelmente é brutal. Modelos com aplicações de cibersegurança tendem a exigir contextos longos e precisão alta, o que explode o número de tokens por requisição. Sem acesso a chips especializados como os TPUs, a conta de inferência inviabiliza qualquer produto B2B ou B2C. A aposta do Google é que a Anthropic vai queimar esses 5 gigawatts rápido.
O que muda na prática
Se você usa a API da Anthropic, prepare-se para dois cenários. Primeiro: os limites de uso do Claude devem melhorar. A Anthropic enfrentou reclamações pesadas sobre rate limits nas últimas semanas. O dinheiro do Google e o acordo com a CoreWeave são a resposta direta a isso. Segundo: o custo por token pode não cair. O investimento é em capacidade, não em eficiência. A Anthropic pode optar por manter margens altas enquanto resolve o problema de disponibilidade.
Para quem constrói aplicações com RAG ou fine-tuning, a dica é monitorar os preços da API do Claude nos próximos 90 dias. Se houver redução, é sinal de que a capacidade extra está sendo usada para ganhar market share. Se os preços subirem, é porque o Mythos é realmente caro de rodar.
Tensão: isso escala ou só muda o problema?
A pergunta que fica é: o Mythos é um avanço real ou um modelo que só funciona porque queima uma quantidade insustentável de compute? A Anthropic restringiu o acesso por questões de segurança, mas o modelo já vazou. Se o custo de inferência for proibitivo, o vazamento não gera concorrência real. Mas se o modelo for eficiente o suficiente para rodar em hardware de terceiros, a vantagem competitiva da Anthropic desaparece.
O Google está apostando que a dependência de TPU vai manter a Anthropic presa ao ecossistema Google Cloud. A Amazon também colocou US$ 5 bilhões e prometeu gastar até US$ 100 bilhões em capacidade. A Anthropic está fazendo o que qualquer startup de IA faria: aceitando todo o dinheiro que aparece. O risco é que, no final, a empresa vire uma divisão de P&D de um dos hyperscalers, sem independência real.
Fechamento
O investimento de US$ 40 bilhões do Google na Anthropic não é sobre o Mythos. É sobre garantir que o próximo grande modelo de IA rode em hardware do Google. Para quem desenvolve com IA, a lição é clara: escolher um provedor de API é também escolher um fornecedor de infraestrutura. O custo de trocar de modelo pode ser menor do que o custo de trocar de nuvem.
Nenhum comentário ainda. Seja o primeiro a comentar!
Deixe seu comentário