Google Acelera Lançamentos de Modelos de IA, Mas Sacrifica Transparência
Mais de dois anos após ser surpreendido pelo lançamento do ChatGPT da OpenAI, o Google intensificou o ritmo de seus lançamentos de modelos de inteligência artificial. No final de março, a empresa lançou o modelo de raciocínio Gemini 2.5 Pro, que lidera a indústria em vários benchmarks de capacidades de codificação e matemática. Este lançamento ocorreu apenas três meses após a estreia do modelo Gemini 2.0 Flash, que na época era considerado de ponta.
Segundo Tulsee Doshi, Diretora e Chefe de Produto do Gemini, a frequência crescente dos lançamentos é parte de um esforço concertado para acompanhar a indústria de IA em rápida evolução. No entanto, essa aceleração parece ter um custo. O Google ainda não publicou relatórios de segurança para seus últimos modelos, incluindo o Gemini 2.5 Pro e o Gemini 2.0 Flash, levantando preocupações sobre a priorização da velocidade em detrimento da transparência.
Atualmente, é padrão para laboratórios de IA de ponta, como OpenAI, Anthropic e Meta, reportarem testes de segurança, avaliações de desempenho e casos de uso ao lançarem novos modelos. Esses relatórios, às vezes chamados de 'system cards' ou 'model cards', foram propostos há anos por pesquisadores da indústria e acadêmica. O Google foi um dos primeiros a sugerir os 'model cards' em um artigo de pesquisa de 2019, chamando-os de 'uma abordagem para práticas responsáveis, transparentes e responsáveis em aprendizado de máquina'.
Doshi explicou ao TechCrunch que o Google não publicou um 'model card' para o Gemini 2.5 Pro porque considera o modelo um lançamento 'experimental'. O objetivo desses lançamentos experimentais é colocar um modelo de IA de forma limitada, obter feedback e iterar sobre o modelo antes de um lançamento de produção. O Google pretende publicar o 'model card' do Gemini 2.5 Pro quando o modelo estiver disponível ao público em geral, segundo Doshi, acrescentando que a empresa já realizou testes de segurança e 'adversarial red teaming'.
Em uma mensagem de acompanhamento, um porta-voz do Google informou ao TechCrunch que a segurança continua sendo uma 'prioridade máxima' para a empresa, e que planeja liberar mais documentação sobre seus modelos de IA, incluindo o Gemini 2.0 Flash, no futuro. O Gemini 2.0 Flash, que está disponível ao público em geral, também não possui um 'model card'. O último 'model card' que o Google lançou foi para o Gemini 1.5 Pro, há mais de um ano.
Os 'system cards' e 'model cards' fornecem informações úteis – e às vezes desfavoráveis – que as empresas nem sempre divulgam amplamente sobre sua IA. Por exemplo, o 'system card' que a OpenAI lançou para seu modelo de raciocínio o1 revelou que o modelo da empresa tem uma tendência a 'esquematizar' contra humanos e perseguir secretamente seus próprios objetivos.
Em geral, a comunidade de IA percebe esses relatórios como esforços de boa-fé para apoiar pesquisas independentes e avaliações de segurança, mas os relatórios ganharam importância adicional nos últimos anos. Como o Transformer já observou, o Google informou ao governo dos EUA em 2023 que publicaria relatórios de segurança para todos os lançamentos de modelos de IA públicos 'significativos' 'dentro do escopo'. A empresa fez um compromisso semelhante com outros governos, prometendo 'proporcionar transparência pública'.
Houve esforços regulatórios nos níveis federal e estadual nos EUA para criar padrões de relatório de segurança para desenvolvedores de modelos de IA. No entanto, eles foram recebidos com adoção e sucesso limitados. Uma das tentativas mais notáveis foi o veto ao projeto de lei da Califórnia SB 1047, que a indústria de tecnologia se opôs veementemente. Legisladores também propuseram legislação que autorizaria o Instituto de Segurança de IA dos EUA, o órgão de definição de padrões de IA dos EUA, a estabelecer diretrizes para lançamentos de modelos. No entanto, o Instituto de Segurança de IA agora enfrenta possíveis cortes sob a administração Trump.
De todas as aparências, o Google está ficando para trás em algumas de suas promessas de reportar sobre testes de modelos, ao mesmo tempo em que envia modelos mais rápido do que nunca. É um precedente ruim, muitos especialistas argumentam – especialmente à medida que esses modelos se tornam mais capazes e sofisticados.