Google I/O 2025: Revolução IA com Gemini Ultra, Veo 3 e Inovações Massivas em Android e Mais!

Share

A conferência anual de desenvolvedores do Google, o Google I/O 2025, agitou o Shoreline Amphitheatre em Mountain View nesta terça e quarta-feira, trazendo uma avalanche de novidades. O evento foi o palco para anúncios impactantes que abrangem todo o portfólio da gigante da tecnologia, com destaque especial para inovações em Inteligência Artificial, Android, Chrome, Google Search e YouTube.

Antecipando o evento principal, o Google dedicou um espaço virtual, “The Android Show”, para revelar atualizações significativas no ecossistema Android. Entre elas, destacam-se:

  • Novas formas de localizar dispositivos Android e outros itens perdidos, agora sob o nome Find Hub.
  • Recursos adicionais de segurança a nível de dispositivo para o programa de Proteção Avançada.
  • Ferramentas de segurança aprimoradas para proteger os usuários contra golpes e roubos.
  • Uma nova linguagem de design para o Android, denominada Material 3 Expressive.

Gemini Ultra: A Experiência IA Premium do Google

Um dos anúncios mais aguardados foi o Gemini Ultra, que promete o “mais alto nível de acesso” aos aplicativos e serviços de IA do Google. Inicialmente disponível apenas nos EUA, o plano custa US$ 249,99 por mês e inclui:

  • O gerador de vídeo Veo 3.
  • O novo aplicativo de edição de vídeo Flow.
  • O poderoso modo Gemini 2.5 Pro Deep Think (ainda não lançado).
  • Limites mais altos nas plataformas NotebookLM e Whisk (ferramenta de remixagem de imagens).
  • Acesso ao chatbot Gemini no Chrome.
  • Ferramentas “agênticas” impulsionadas pela tecnologia do Project Mariner.
  • Assinatura do YouTube Premium.
  • 30TB de armazenamento unificado entre Google Drive, Google Fotos e Gmail.

Deep Think: Raciocínio Aprimorado no Gemini 2.5 Pro

O Deep Think é um modo de raciocínio avançado para o principal modelo de IA do Google, o Gemini 2.5 Pro. Essa capacidade permite que o modelo considere múltiplas respostas antes de formular uma solução, melhorando seu desempenho em benchmarks específicos. Atualmente, o Deep Think está disponível para “testadores confiáveis” através da API Gemini, enquanto o Google realiza avaliações de segurança adicionais antes de um lançamento mais amplo.

O Google apresentou o Veo 3, um modelo de IA capaz de gerar não apenas vídeos, mas também efeitos sonoros, ruídos de fundo e até diálogos para acompanhar as criações. A empresa afirma que o Veo 3 supera seu antecessor, Veo 2, na qualidade das filmagens geradas. A novidade já está disponível no aplicativo de chatbot Gemini para assinantes do plano AI Ultra.

Imagen 4: Geração de Imagens Mais Rápida e Detalhada

O novo gerador de imagens por IA, Imagen 4, foi anunciado como mais rápido que seu predecessor, o Imagen 3. O Google planeja lançar uma variante futura até 10 vezes mais veloz. O Imagen 4 é capaz de renderizar “detalhes finos” como tecidos, gotas d’água e pelos de animais, lidando com estilos fotorrealistas e abstratos em diversas proporções e resolução de até 2K. Tanto o Veo 3 quanto o Imagen 4 alimentarão o Flow, a ferramenta de vídeo com IA voltada para cineastas.

Atualizações no Aplicativo Gemini: Interação e Pesquisa Aprofundada

O Google revelou que os aplicativos Gemini já contam com mais de 400 milhões de usuários ativos mensais. As capacidades de câmera e compartilhamento de tela do Gemini Live, impulsionadas pelo Project Astra, serão lançadas esta semana para todos os usuários iOS e Android, permitindo conversas verbais quase em tempo real com o Gemini enquanto se transmite vídeo da câmera ou tela do smartphone.

O Gemini Live também se integrará mais profundamente com outros aplicativos do Google nas próximas semanas, oferecendo direções do Google Maps, criando eventos no Google Agenda e listas de tarefas com o Google Tarefas. A funcionalidade Deep Research, que gera relatórios de pesquisa completos, permitirá o upload de PDFs e imagens privadas pelos usuários.

Stitch e Jules: IA Auxiliando no Design e Desenvolvimento

Para os desenvolvedores, o Google lançou o Stitch, uma ferramenta de IA para auxiliar no design de interfaces de aplicativos web e móveis, gerando elementos de UI e o código HTML/CSS correspondente a partir de descrições textuais ou imagens. Embora mais limitado em comparação com alguns produtos concorrentes, o Stitch oferece boas opções de personalização.

O acesso ao Jules, o agente de IA focado em ajudar desenvolvedores a corrigir bugs, entender códigos complexos, criar pull requests no GitHub e lidar com tarefas de programação, também foi expandido.

Project Mariner: O Agente IA Navegador da Web

O Project Mariner, agente experimental de IA do Google que navega e utiliza sites, recebeu atualizações significativas. Agora, ele pode lidar com quase uma dúzia de tarefas simultaneamente e está sendo liberado para os usuários. Com ele, será possível, por exemplo, comprar ingressos para um jogo ou fazer compras online sem visitar diretamente os sites de terceiros, apenas interagindo com o agente IA do Google.

Project Astra: Experiências Multimodais em Tempo Real

O Project Astra, a experiência de IA multimodal de baixa latência do Google, potencializará novas funcionalidades no Search, no aplicativo Gemini e em produtos de desenvolvedores terceirizados. Nascido no Google DeepMind, o Project Astra visa demonstrar capacidades de IA quase em tempo real. A empresa está desenvolvendo óculos baseados no Project Astra em parceria com empresas como Samsung e Warby Parker, mas ainda não há data de lançamento definida.

AI Mode no Google Search: Perguntas Complexas e Busca Interativa

O AI Mode, recurso experimental do Google Search que permite aos usuários fazerem perguntas complexas e multipartes através de uma interface de IA, está sendo lançado nos EUA esta semana. O AI Mode suportará o uso de dados complexos em consultas sobre esportes e finanças, e oferecerá opções de “experimentar” para vestuário. O Search Live, que chegará no final do verão, permitirá fazer perguntas com base no que a câmera do celular está vendo em tempo real. O Gmail é o primeiro aplicativo a ser suportado com contexto personalizado.

Beam: Teleconferências 3D Imersivas

O Beam, anteriormente conhecido como Starline, utiliza uma combinação de software e hardware (incluindo um conjunto de seis câmeras e um display de campo de luz customizado) para permitir conversas como se os participantes estivessem na mesma sala. Um modelo de IA converte o vídeo das câmeras em uma renderização 3D. O Beam oferece rastreamento de cabeça com precisão milimétrica e streaming de vídeo a 60fps. Quando usado com o Google Meet, o Beam fornece tradução de fala em tempo real com IA que preserva a voz, o tom e as expressões do locutor original. Falando em Google Meet, a plataforma também está recebendo tradução de fala em tempo real.

Outras Novidades em Inteligência Artificial

  • Gemini no Chrome: Um novo assistente de navegação com IA ajudará a entender rapidamente o contexto de uma página e realizar tarefas.
  • Gemma 3n: Um modelo projetado para rodar fluidamente em celulares, laptops e tablets, capaz de lidar com áudio, texto, imagens e vídeos. Já disponível em preview.
  • Recursos de IA no Workspace: O Gmail receberá respostas inteligentes personalizadas e um novo recurso de limpeza da caixa de entrada. O Google Docs e o Google Vids também ganham novas formas de criar e editar conteúdo.
  • Video Overviews no NotebookLM.
  • SynthID Detector: Um portal de verificação que usa a tecnologia de marca d’água SynthID para ajudar a identificar conteúdo gerado por IA.
  • Lyria RealTime: O modelo de IA que alimenta o aplicativo experimental de produção musical do Google agora está disponível via API.

Wear OS 6: Design Refinado e Personalização

O Wear OS 6 traz uma fonte unificada para os blocos (tiles), proporcionando um visual mais limpo aos aplicativos. Os Pixel Watches receberão temas dinâmicos que sincronizam as cores dos aplicativos com os mostradores do relógio. A promessa central da nova plataforma de referência de design é permitir que os desenvolvedores criem maior personalização nos aplicativos, juntamente com transições suaves. O Google está lançando diretrizes de design para desenvolvedores, acompanhadas de arquivos de design Figma.

Google Play: Ferramentas Aprimoradas para Desenvolvedores

O Google está robustecendo a Play Store para desenvolvedores Android com novas ferramentas para gerenciar assinaturas, páginas de tópicos para que os usuários possam mergulhar em interesses específicos, amostras de áudio para dar uma prévia do conteúdo dos aplicativos e uma nova experiência de checkout para facilitar a venda de complementos. Páginas de “navegação por tópico” para filmes e programas (inicialmente apenas nos EUA) conectarão os usuários a aplicativos vinculados a diversos programas e filmes. Além disso, os desenvolvedores estão recebendo páginas dedicadas para testes e lançamentos, e ferramentas para monitorar e melhorar as implementações de seus aplicativos. Desenvolvedores usando o Google agora também podem interromper lançamentos de aplicativos ao vivo se um problema crítico surgir. As ferramentas de gerenciamento de assinaturas também estão sendo atualizadas com checkout de múltiplos produtos, permitindo que os desenvolvedores ofereçam complementos de assinatura juntamente com as assinaturas principais, tudo sob um único pagamento.

Android Studio: IA Integrada para Desenvolvedores

O Android Studio está integrando novos recursos de IA, incluindo “Journeys”, uma capacidade de “IA agêntica” que coincide com o lançamento do modelo Gemini 2.5 Pro. Um “Agent Mode” será capaz de lidar com processos de desenvolvimento mais complexos. O Android Studio receberá novas capacidades de IA, incluindo um recurso aprimorado de “insights de falhas” no painel App Quality Insights. Essa melhoria, impulsionada pelo Gemini, analisará o código-fonte de um aplicativo para identificar possíveis causas de falhas e sugerir correções.

Fonte adaptada de informações divulgadas sobre o Google I/O 2025, com referências a conteúdos do IAFeed.

Read more

Local News