O começo do fim dos Macs com muita RAM?
Se você depende de um Mac Studio com 256GB ou 512GB de memória unificada para rodar modelos de linguagem grandes (LLMs) localmente, a Apple acabou de fechar essa porta. A empresa removeu silenciosamente as configurações de 128GB, 256GB e 512GB, restando apenas a opção de 96GB para o M3 Ultra. O Mac mini também está limitado a 48GB. Para quem constrói ou testa LLMs locais, isso não é só uma notícia ruim: é uma mudança real no ecossistema.
O fato
Como reportado pela comunidade no Reddit, a Apple eliminou as configurações de alta memória do Mac Studio. A opção de 512GB já tinha sumido em março, e agora as de 256GB e 128GB também desapareceram. O M3 Ultra Mac Studio agora só pode ser comprado com 96GB. A Apple confirmou que tanto o Mac Studio quanto o Mac mini vão ficar com oferta limitada pelos próximos meses. A justificativa? Custos de produção de chips de alta memória ficaram muito altos.
Como funciona na prática
Rodar LLMs localmente exige, acima de tudo, muita memória unificada. Modelos como o Qwen 397b (que muitos usam) precisam de mais de 200GB de RAM para serem carregados em quantização 4-bit. Com 96GB, você fica restrito a modelos menores, como os de 7B a 13B parâmetros, ou no máximo alguns 70B com quantização agressiva. A latência também sofre: sem RAM suficiente, o modelo usa swapping para o SSD, o que destrói a performance. Arquiteturalmente, o gargalo não é apenas a capacidade de RAM, mas também a largura de banda: o M3 Ultra oferece 800 GB/s, que é excelente, mas de nada adianta se não houver memória para carregar o modelo inteiro.
O que isso muda na prática
Quem ganha? Quem já tem um Mac Studio com 256GB ou 512GB – esses dispositivos vão se valorizar no mercado de usados. Quem perde? Quem planejava comprar um Mac Studio para LLMs locais: agora terá que buscar alternativas, como PCs com GPUs NVIDIA (ex: RTX 4090 com 24GB, em multi-GPU) ou servidores dedicados. Na prática, se você quer rodar um modelo de 70B localmente, precisará de pelo menos 2x RTX 4090 (48GB) ou 4x (96GB), o que custa caro e consome muito mais energia. Uma ação prática imediata: se você tem um Mac Studio com alta memória, segure-o bem; se está no mercado, compre um usado rápido antes que os preços subam.
Tensão: será que o custo compensa?
A Apple pode ter feito uma conta: o chip de alta memória (HBM empilhado) é caro de produzir e a demanda é pequena. Para a empresa, faz sentido cortar. Mas para a comunidade de IA local, que viu no Mac uma alternativa relativamente acessível e eficiente, é um baque. A questão é: isso resolve o problema de custos da Apple ou só empurra os entusiastas para outras plataformas? A longo prazo, pode acelerar a adoção de soluções baseadas em cloud ou de hardware aberto.
Conclusão
Se você roda LLMs localmente em um Mac, o cenário ficou mais apertado. As opções de alta memória sumiram e o mercado de usados vai aquecer. A pergunta que fica: até quando a Apple vai ignorar esse nicho, ou teremos um Mac Pro com mais memória no futuro?
Nenhum comentário ainda. Seja o primeiro a comentar!
Deixe seu comentário