Os gargalos reais da IA: chips, energia e um modelo diferente

Os gargalos reais da IA: chips, energia e um modelo diferente

O mercado de IA está colidindo com limites físicos. Não se trata de falta de ideias, mas de silício, energia e dados do mundo real. Foi o que cinco executivos do topo da cadeia de suprimentos de IA deixaram claro no Milken Global Conference.

O Fato

Christophe Fouquet (ASML), Francis deSouza (Google Cloud), Qasar Younis (Applied Intuition), Dimitry Shevelenko (Perplexity) e Eve Bodnia (Logical Intelligence) discutiram gargalos reais. A conclusão: oferta de chips insuficiente por anos, energia como novo limitador e uma arquitetura de IA que talvez esteja errada.

Como Funciona (Visão de Operador)

Fouquet foi direto: 'para os próximos dois a cinco anos, o mercado será limitado pela oferta'. As hyperscalers não receberão todos os chips que pagam. DeSouza mostrou o tamanho do problema: a receita do Google Cloud cresceu 63% no último trimestre, e o backlog (receita contratada mas não entregue) saltou de US$ 250 bilhões para US$ 460 bilhões em um trimestre. A demanda é real, mas a capacidade de fabricação não acompanha.

Enquanto isso, Younis apontou que, para IA física (carros, drones, defesa), o gargalo não é silício, mas dados do mundo real. Simulação sintética não fecha o gap. 'Você tem que encontrar esses dados no mundo real', disse.

O segundo gargalo é energia. DeSouza confirmou que o Google explora data centers em órbita como resposta à escassez energética. Mas no vácuo, não há convecção, apenas radiação para dissipar calor, um desafio de engenharia enorme. A vantagem competitiva do Google, segundo ele, está na integração vertical: chips TPU projetados junto com modelos Gemini, resultando em maior eficiência energética por flop.

Bodnia propõe uma alternativa. Sua startup Logical Intelligence usa modelos baseados em energia (EBMs), com 200 milhões de parâmetros (contra centenas de bilhões das LLMs). Ela alega que são milhares de vezes mais rápidos e podem atualizar conhecimento sem retreinar. 'A linguagem é uma interface de usuário entre meu cérebro e o seu. O raciocínio em si não está ligado a nenhuma língua', disse.

O Que Isso Muda na Prática

Quem ganha: empresas com integração vertical (Google, Apple?) e startups de hardware especializado. Quem perde: quem depende de chips genéricos e espera escala infinita. Ação prática: se você usa LLMs, comece a medir eficiência energética por query e avalie modelos menores e especializados. Para quem constrói agentes, foque em granularidade de permissões: Shevelenko destacou que Perplexity permite controle de leitura e escrita separados, essencial para segurança corporativa.

Além disso, considere arquiteturas alternativas. EBMs podem não substituir LLMs em chatbots, mas em robótica e simulação física podem ser mais adequados. Teste.

Tensão / Reflexão

O discurso de que 'escala resolve tudo' está sendo desafiado por fatos concretos: não há chips suficientes, nem energia barata. Data centers em órbita parecem ficção científica, mas a necessidade é real. E enquanto isso, modelos com 200 milhões de parâmetros prometem fazer mais com menos. A pergunta que fica: o custo de construir e manter infraestrutura de IA é sustentável? Ou vamos mover o gargalo de silício para energia, e de energia para refrigeração espacial? A resposta de Fouquet foi direta: 'Nada pode não ter preço.'

Fechamento

A indústria de IA está em um momento estranho: investimentos extraordinários impulsionados por necessidade estratégica, mas com retornos incertos. Os gargalos reais não são de inovação algorítmica, mas de matéria-prima, energia e dados físicos. Quem ignorar isso vai pagar caro em latência e custo.

Compartilhe este artigo

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário