Semanas após o lançamento do seu mais recente e poderoso modelo de inteligência artificial, o Gemini 2.5 Pro, o Google publicou um relatório técnico detalhando suas avaliações internas de segurança. No entanto, o documento divulgado na última quinta-feira está sendo criticado por especialistas por sua falta de detalhes, o que dificulta a avaliação completa dos riscos potenciais associados ao modelo.
Relatórios técnicos são vistos pela comunidade de IA como ferramentas essenciais para a transparência e para apoiar pesquisas independentes sobre a segurança dos modelos. Eles frequentemente revelam informações que as empresas não divulgam amplamente. Contudo, a abordagem do Google difere de alguns concorrentes, publicando esses relatórios apenas quando considera que um modelo saiu da fase "experimental".
Especialistas consultados pelo TechCrunch expressaram decepção com a escassez de informações no relatório do Gemini 2.5 Pro. Peter Wildeford, co-fundador do Institute for AI Policy and Strategy, afirmou que o relatório é "muito esparso, contém informações mínimas e saiu semanas depois que o modelo já estava disponível ao público". Ele acrescentou que isso torna "impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança de seus modelos".
Outro ponto de crítica é a ausência de menção ao Frontier Safety Framework (FSF) do próprio Google, introduzido no ano passado para identificar capacidades futuras de IA que poderiam causar "danos severos". Thomas Woodside, co-fundador do Secure AI Project, embora satisfeito com a publicação do relatório, questionou o compromisso da empresa com avaliações de segurança suplementares e oportunas, lembrando que o último relatório sobre testes de "capacidades perigosas" foi divulgado em junho de 2024 para um modelo anunciado em fevereiro do mesmo ano.
Aumentando a preocupação, o Google ainda não disponibilizou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado recentemente, embora um porta-voz tenha afirmado que o documento está "chegando em breve".
Essa tendência de relatórios vagos ou atrasados não é exclusiva do Google. A Meta também foi criticada por uma avaliação de segurança considerada superficial para seus novos modelos Llama 4, e a OpenAI optou por não publicar nenhum relatório para a série GPT-4.1.
Kevin Bankston, conselheiro sênior em governança de IA no Center for Democracy and Technology, descreveu a situação como uma preocupante "corrida para o fundo do poço" em segurança e transparência na IA, à medida que as empresas aceleram o lançamento de seus modelos no mercado. Ele destacou que essa falta de documentação robusta contrasta com os compromissos públicos que gigantes da tecnologia, incluindo o Google, fizeram a reguladores nos EUA e em outros países sobre manter altos padrões de testes e relatórios de segurança para IA.
O Google afirma que realiza testes de segurança e "red teaming adversário" antes do lançamento dos modelos, mesmo que nem todos os detalhes constem nos relatórios técnicos publicados.