Google Acelera Lançamentos de Modelos de IA, Mas Sacrifica Transparência

Google Acelera Lançamentos de Modelos de IA, Mas Sacrifica Transparência

Google Acelera Lançamentos de Modelos de IA, Mas Sacrifica Transparência

Mais de dois anos após ser surpreendido pelo lançamento do ChatGPT da OpenAI, o Google intensificou o ritmo de seus lançamentos de modelos de inteligência artificial. No final de março, a empresa lançou o modelo de raciocínio Gemini 2.5 Pro, que lidera a indústria em vários benchmarks de capacidades de codificação e matemática. Este lançamento ocorreu apenas três meses após a estreia do modelo Gemini 2.0 Flash, que na época era considerado de ponta.

Segundo Tulsee Doshi, Diretora e Chefe de Produto do Gemini, a frequência crescente dos lançamentos é parte de um esforço concertado para acompanhar a indústria de IA em rápida evolução. No entanto, essa aceleração parece ter um custo. O Google ainda não publicou relatórios de segurança para seus últimos modelos, incluindo o Gemini 2.5 Pro e o Gemini 2.0 Flash, levantando preocupações sobre a priorização da velocidade em detrimento da transparência.

Atualmente, é padrão para laboratórios de IA de ponta, como OpenAI, Anthropic e Meta, reportarem testes de segurança, avaliações de desempenho e casos de uso ao lançarem novos modelos. Esses relatórios, às vezes chamados de 'system cards' ou 'model cards', foram propostos há anos por pesquisadores da indústria e acadêmica. O Google foi um dos primeiros a sugerir os 'model cards' em um artigo de pesquisa de 2019, chamando-os de 'uma abordagem para práticas responsáveis, transparentes e responsáveis em aprendizado de máquina'.

Doshi explicou ao TechCrunch que o Google não publicou um 'model card' para o Gemini 2.5 Pro porque considera o modelo um lançamento 'experimental'. O objetivo desses lançamentos experimentais é colocar um modelo de IA de forma limitada, obter feedback e iterar sobre o modelo antes de um lançamento de produção. O Google pretende publicar o 'model card' do Gemini 2.5 Pro quando o modelo estiver disponível ao público em geral, segundo Doshi, acrescentando que a empresa já realizou testes de segurança e 'adversarial red teaming'.

Em uma mensagem de acompanhamento, um porta-voz do Google informou ao TechCrunch que a segurança continua sendo uma 'prioridade máxima' para a empresa, e que planeja liberar mais documentação sobre seus modelos de IA, incluindo o Gemini 2.0 Flash, no futuro. O Gemini 2.0 Flash, que está disponível ao público em geral, também não possui um 'model card'. O último 'model card' que o Google lançou foi para o Gemini 1.5 Pro, há mais de um ano.

Os 'system cards' e 'model cards' fornecem informações úteis – e às vezes desfavoráveis – que as empresas nem sempre divulgam amplamente sobre sua IA. Por exemplo, o 'system card' que a OpenAI lançou para seu modelo de raciocínio o1 revelou que o modelo da empresa tem uma tendência a 'esquematizar' contra humanos e perseguir secretamente seus próprios objetivos.

Em geral, a comunidade de IA percebe esses relatórios como esforços de boa-fé para apoiar pesquisas independentes e avaliações de segurança, mas os relatórios ganharam importância adicional nos últimos anos. Como o Transformer já observou, o Google informou ao governo dos EUA em 2023 que publicaria relatórios de segurança para todos os lançamentos de modelos de IA públicos 'significativos' 'dentro do escopo'. A empresa fez um compromisso semelhante com outros governos, prometendo 'proporcionar transparência pública'.

Houve esforços regulatórios nos níveis federal e estadual nos EUA para criar padrões de relatório de segurança para desenvolvedores de modelos de IA. No entanto, eles foram recebidos com adoção e sucesso limitados. Uma das tentativas mais notáveis foi o veto ao projeto de lei da Califórnia SB 1047, que a indústria de tecnologia se opôs veementemente. Legisladores também propuseram legislação que autorizaria o Instituto de Segurança de IA dos EUA, o órgão de definição de padrões de IA dos EUA, a estabelecer diretrizes para lançamentos de modelos. No entanto, o Instituto de Segurança de IA agora enfrenta possíveis cortes sob a administração Trump.

De todas as aparências, o Google está ficando para trás em algumas de suas promessas de reportar sobre testes de modelos, ao mesmo tempo em que envia modelos mais rápido do que nunca. É um precedente ruim, muitos especialistas argumentam – especialmente à medida que esses modelos se tornam mais capazes e sofisticados.

Compartilhe este artigo