O preço do progresso
Se você usa a API da OpenAI para tarefas reais, provavelmente já sentiu o baque. O GPT-5.5 chegou com preços de listra que parecem um salto: input tokens a $5 por milhão (antes $2.50) e output a $30 (antes $15). Dobrou. A OpenAI diz que respostas mais curtas devem aliviar o custo. Mas a realidade, como sempre, é mais complexa.
O fato
Dados do OpenRouter, baseados em logs de uso reais de abril de 2026, mostram que o custo efetivo subiu entre 49% e 92%, dependendo do tamanho do input. Para entradas acima de 10 mil tokens, as respostas são 19% a 34% mais curtas, o que ajuda um pouco. Mas na faixa de 2 mil a 10 mil tokens, as respostas ficaram 52% mais longas. Para inputs curtos, abaixo de 2 mil tokens, o comprimento mal muda, e o custo efetivo praticamente dobra.
Como funciona (visão de operador)
Na prática, a OpenAI parece ter ajustado o modelo para ser mais verborrágico em certos contextos. O estudo do OpenRouter é mais confiável que os benchmarks do Artificial Analysis, que só mostravam 20% de aumento — porque teste de benchmark não reflete uso real. O GPT-5.5 provavelmente tem uma arquitetura que incentiva respostas mais longas em inputs médios, o que consome mais tokens de saída. Como o custo de output é o dobro, o efeito é amplificado. Se você usa a API com muitos prompts de tamanho médio, está pagando mais por cada interação.
O que isso muda na prática
- Quem ganha: A OpenAI, que precisa mostrar receita crescente antes do IPO. E concorrentes como a Anthropic, que já subiram preços do Opus 4.7 em 30-40% seguindo lógica similar.
- Quem perde: Desenvolvedores, startups, e empresas que dependem da API para operações frequentes. Especialmente quem usa o modelo para tarefas de tamanho médio, onde o custo explodiu.
- Ação prática: Reavalie seus prompts. Se você pode limitar o tamanho do input ou forçar respostas mais curtas via system prompt, faça isso. Considere migrar tarefas que não exigem o modelo mais recente para versões anteriores ou alternativas mais baratas. Monitore o comprimento das respostas com logging.
Tensão / Reflexão
Essa estratégia de preços levanta uma dúvida incômoda: será que a OpenAI está tentando forçar a migração para modelos mais caros, empurrando os devs a aceitar custos maiores sob a justificativa de “melhor qualidade”? A promessa de respostas mais curtas compensarem o aumento não se sustenta na prática para a maioria dos casos. Parece mais um movimento para extrair mais valor antes do IPO do que uma otimização genuína. E o pior: se as empresas de API seguirem todas nessa direção, o custo de rodar IA pode se tornar proibitivo para aplicações de nicho. O custo compensa? Depende. Se o ganho de qualidade do GPT-5.5 for mensurável no seu uso, talvez. Caso contrário, você está pagando mais pelo mesmo resultado.
Conclusão
O GPT-5.5 entrega mais custo por token, e a promessa de compensação não se concretiza para a maioria dos cenários. Antes de migrar, meça o impacto real no seu bolso. A pergunta que fica: até quando os desenvolvedores vão aceitar aumentos sem contrapartida clara?
Nenhum comentário ainda. Seja o primeiro a comentar!
Deixe seu comentário