DeepSeek Lança Novo Modelo de IA que Reduz Custos de Operação em Até 50%

Share

Pesquisadores da DeepSeek apresentam modelo experimental V3.2-exp com sistema inovador de atenção esparsa

Em um avanço significativo para a inteligência artificial, pesquisadores da DeepSeek anunciaram nesta segunda-feira o lançamento de um novo modelo experimental chamado V3.2-exp, projetado para reduzir drasticamente os custos de inferência em operações de contexto longo.

🚀 Inovação Tecnológica

A característica mais importante do novo modelo é o DeepSeek Sparse Attention, um sistema complexo que utiliza um módulo chamado “lightning indexer” para priorizar trechos específicos da janela de contexto. Em seguida, um sistema separado chamado “fine-grained token selection system” seleciona tokens específicos dentro desses trechos para carregar na janela de atenção limitada do módulo.

💡 Destaque: Juntos, esses sistemas permitem que os modelos de Atenção Esparsa operem sobre porções longas de contexto com cargas de servidor comparativamente pequenas.

💰 Benefícios Financeiros Significativos

Para operações de contexto longo, os benefícios do sistema são impressionantes. Testes preliminares realizados pela DeepSeek descobriram que o preço de uma simples chamada de API pode ser reduzido em até metade em situações de contexto longo.

Embora sejam necessários mais testes para construir uma avaliação mais robusta, o fato do modelo ser open-weight e disponível gratuitamente no Hugging Face significa que não demorará para que testes de terceiros possam avaliar as afirmações feitas no artigo acadêmico.

🔬 Contexto Mais Amplo

O novo modelo da DeepSeek é um dos vários avanços recentes que abordam o problema dos custos de inferência – essencialmente, os custos de servidor para operar um modelo de IA pré-treinado, diferente do custo de treiná-lo.

No caso da DeepSeek, os pesquisadores estavam procurando maneiras de fazer a arquitetura fundamental do transformer operar com mais eficiência – e descobriram que há melhorias significativas a serem feitas.

🌍 Posicionamento Global

Com sede na China, a DeepSeek tem sido uma figura incomum no boom da IA, especialmente para aqueles que veem a pesquisa de IA como uma luta nacionalista entre EUA e China. A empresa causou impacto no início do ano com seu modelo R1, treinado principalmente usando aprendizado por reforço a um custo muito menor do que seus concorrentes americanos.

📈 Perspectiva: Embora a nova abordagem de “atenção esparsa” provavelmente não produza o mesmo alvoroço que o R1, ela ainda pode ensinar aos provedores americanos alguns truques muito necessários para ajudar a manter os custos de inferência baixos.

O modelo está disponível para download e experimentação na plataforma Hugging Face, permitindo que desenvolvedores e pesquisadores em todo o mundo testem e validem essas inovações promissoras.

Read more

Local News