Google AI Overviews agora citam fóruns
Se você já buscou por algo nichado no Google e adicionou 'Reddit' ao final, sabe que fóruns são uma mina de ouro. Agora o Google quer incorporar isso diretamente no AI Overview. Mas isso é um refinamento ou um passo atrás?
O Fato
A gigante das buscas anunciou uma atualização no AI Overview que inclui previews de discussões de fóruns online, redes sociais e outras fontes. Além disso, destaca links de assinaturas de notícias do usuário. A ideia é responder perguntas subjetivas. Contudo, como apontou o TechCrunch, isso pode tornar o AI Overview confuso: ele deve responder ou apenas listar fontes?
Como Funciona
Do ponto de vista de quem opera, o Google expande o contexto fornecido ao LLM, incluindo snippets de fóruns. Isso aumenta o consumo de tokens de entrada, elevando o custo por consulta. A latência também sobe, pois o modelo precisa processar múltiplas fontes e decidir qual preview mostrar. O Google adiciona metadados como nome do criador e comunidade, o que ajuda na confiabilidade, mas não elimina alucinações. Um teste do NYT mostrou que o AI Overview acerta 9 em cada 10 vezes; para trilhões de consultas, isso gera centenas de milhares de resultados ruins por minuto.
O Que Isso Muda
Quem ganha? Usuários com perguntas subjetivas. Quem perde? Sites que dependem de tráfego orgânico de fóruns. O que fazer? Se você mantém um fórum, repense a estratégia de SEO. Para quem usa IA para respostas, incluir contexto humano reduz alucinações. Teste uma arquitetura RAG que priorize fóruns curados.
Tensão Real
A tensão é clara: o AI Overview alucinava com fontes não confiáveis. Agora adiciona mais fontes não confiáveis, mas com contexto. Isso resolve ou desloca o problema? Um LLM que cita um post de Reddit pode ser tão perigoso quanto um que cita The Onion, se o usuário não avaliar credibilidade. O custo computacional não é desprezível. Escala? Google tem recursos, mas latência extra incomoda. A pergunta permanece: estamos melhor que antes?
Fechamento
A atualização melhora a transparência, mas não elimina o gargalo: confiança cega em modelos de linguagem. Para operadores, a lição é: duvide da fonte e meça a taxa de alucinação no seu domínio. Não delegue a verdade a uma caixa preta, mesmo que ela cite fóruns.
Nenhum comentário ainda. Seja o primeiro a comentar!
Deixe seu comentário