Novo Relatório de Segurança do Gemini 2.5 Pro do Google Sob Críticas por Falta de Transparência

Novo Relatório de Segurança do Gemini 2.5 Pro do Google Sob Críticas por Falta de Transparência

Semanas após o lançamento do seu mais recente e poderoso modelo de inteligência artificial, o Gemini 2.5 Pro, o Google publicou um relatório técnico detalhando suas avaliações internas de segurança. No entanto, o documento divulgado na última quinta-feira está sendo criticado por especialistas por sua falta de detalhes, o que dificulta a avaliação completa dos riscos potenciais associados ao modelo.

Relatórios técnicos são vistos pela comunidade de IA como ferramentas essenciais para a transparência e para apoiar pesquisas independentes sobre a segurança dos modelos. Eles frequentemente revelam informações que as empresas não divulgam amplamente. Contudo, a abordagem do Google difere de alguns concorrentes, publicando esses relatórios apenas quando considera que um modelo saiu da fase "experimental".

Especialistas consultados pelo TechCrunch expressaram decepção com a escassez de informações no relatório do Gemini 2.5 Pro. Peter Wildeford, co-fundador do Institute for AI Policy and Strategy, afirmou que o relatório é "muito esparso, contém informações mínimas e saiu semanas depois que o modelo já estava disponível ao público". Ele acrescentou que isso torna "impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança de seus modelos".

Outro ponto de crítica é a ausência de menção ao Frontier Safety Framework (FSF) do próprio Google, introduzido no ano passado para identificar capacidades futuras de IA que poderiam causar "danos severos". Thomas Woodside, co-fundador do Secure AI Project, embora satisfeito com a publicação do relatório, questionou o compromisso da empresa com avaliações de segurança suplementares e oportunas, lembrando que o último relatório sobre testes de "capacidades perigosas" foi divulgado em junho de 2024 para um modelo anunciado em fevereiro do mesmo ano.

Aumentando a preocupação, o Google ainda não disponibilizou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente anunciado recentemente, embora um porta-voz tenha afirmado que o documento está "chegando em breve".

Essa tendência de relatórios vagos ou atrasados não é exclusiva do Google. A Meta também foi criticada por uma avaliação de segurança considerada superficial para seus novos modelos Llama 4, e a OpenAI optou por não publicar nenhum relatório para a série GPT-4.1.

Kevin Bankston, conselheiro sênior em governança de IA no Center for Democracy and Technology, descreveu a situação como uma preocupante "corrida para o fundo do poço" em segurança e transparência na IA, à medida que as empresas aceleram o lançamento de seus modelos no mercado. Ele destacou que essa falta de documentação robusta contrasta com os compromissos públicos que gigantes da tecnologia, incluindo o Google, fizeram a reguladores nos EUA e em outros países sobre manter altos padrões de testes e relatórios de segurança para IA.

O Google afirma que realiza testes de segurança e "red teaming adversário" antes do lançamento dos modelos, mesmo que nem todos os detalhes constem nos relatórios técnicos publicados.

Compartilhe este artigo