Google I/O 2025: Project Astra Impulsiona IA Multimodal no Search, Gemini e Abre Novas Fronteiras para Desenvolvedores
Durante o aguardado evento Google I/O 2025, o Google anunciou nesta terça-feira uma novidade que promete transformar a interação com a inteligência artificial: o Project Astra. Esta plataforma de IA multimodal de baixa latência será a força motriz por trás de uma série de novas experiências no Google Search, no aplicativo Gemini AI e em produtos de desenvolvedores terceirizados, marcando um novo capítulo na evolução da IA.
Revolução na Busca: Conheça o Search Live
Uma das implementações mais notáveis do Project Astra é o novo recurso Search Live no Google Search. Ao utilizar o Modo IA – a funcionalidade de busca turbinada por inteligência artificial do Google – ou o Lens, a ferramenta de busca visual da empresa, os usuários poderão acionar o botão “Live”. Isso permitirá que façam perguntas em tempo real sobre o que estão vendo através da câmera de seus smartphones. O Project Astra processa o fluxo de vídeo e áudio ao vivo, entregando respostas com latência mínima, quase instantaneamente.
Project Astra: Da Concepção aos Óculos Inteligentes
O Project Astra foi revelado pela primeira vez no Google I/O 2024, através de uma demonstração de óculos inteligentes que rapidamente se tornou viral. Originado no Google DeepMind, o projeto nasceu com o objetivo de exibir as capacidades da IA multimodal operando em tempo quase real. Agora, o Google confirma que está desenvolvendo ativamente esses óculos inteligentes em colaboração com parceiros de peso, incluindo Samsung e Warby Parker. Apesar disso, uma data de lançamento específica para os óculos ainda não foi divulgada. Contudo, a empresa já disponibiliza uma variedade de recursos alimentados pelo Astra tanto para consumidores quanto para a comunidade de desenvolvedores.
Novas Ferramentas para Desenvolvedores com a Live API
O Google anunciou que o Project Astra está potencializando um novo recurso em sua Live API, um endpoint crucial para desenvolvedores que buscam criar interações de voz de baixa latência com o Gemini. A partir desta terça-feira, os desenvolvedores poderão construir experiências que suportam entrada de áudio e visual, além de saída de áudio nativa – replicando a essência do Project Astra. Segundo o Google, a Live API atualizada também foi aprimorada com detecção de emoção, permitindo que o modelo de IA responda de forma mais contextualizada e apropriada, e incorpora as avançadas capacidades de raciocínio dos modelos de IA do Gemini.
Experiências Aprimoradas no Aplicativo Gemini
No aplicativo Gemini, o Google informou que os recursos de processamento de vídeo em tempo real e compartilhamento de tela do Project Astra serão estendidos a todos os usuários. Anteriormente, embora o Project Astra já otimizasse as conversas de baixa latência no Gemini Live, a capacidade de entrada visual era um privilégio reservado para assinantes pagos.
O Futuro com Project Astra: Visão e Desafios
O Google demonstra grande confiança no Project Astra como o alicerce para o futuro de muitos de seus produtos e até mesmo como o catalisador para uma categoria de produto inteiramente nova: os óculos inteligentes. Embora essa visão seja promissora, a empresa ainda não definiu uma data de lançamento para os óculos inteligentes do Project Astra, apresentados no ano anterior. Foram oferecidos alguns detalhes adicionais sobre o design e as funcionalidades esperadas, mas o produto final ainda parece estar a uma certa distância de se tornar uma realidade comercial palpável.
