IA gera exploits de navegador: benchmark acende alerta

IA gera exploits de navegador: benchmark acende alerta

O problema real

Se você trabalha com segurança, já deve ter pensado: até onde uma IA pode ir para explorar uma vulnerabilidade? Um novo benchmark da Carnegie Mellon University responde essa pergunta de forma direta – e preocupante.

O fato

Pesquisadores criaram um benchmark que mede a capacidade de agentes de IA em desenvolver exploits reais para o motor V8 do Google Chrome. Os resultados mostram que tanto o Claude Mythos quanto o GPT-5.5 conseguem gerar código de exploração de forma autônoma, sem supervisão humana direta. O Mythos lidera com folga, mas custa doze vezes mais que o GPT-5.5.

Como funciona na prática

O benchmark provavelmente expõe os modelos a CVEs conhecidas e avalia a taxa de sucesso na criação de um exploit funcional. Do ponto de vista de operador, isso significa que qualquer um com acesso a essas APIs pode, em tese, automatizar parte do trabalho de um pentester. Mas o custo por chamada é relevante: enquanto o GPT-5.5 é viável para testes frequentes, o Mythos consome mais tokens e demora mais, o que limita seu uso em larga escala.

Em termos de arquitetura, ambos modelos usam mecanismos de raciocínio em cadeia e acesso a ferramentas externas (como navegadores headless e depuradores). A diferença de desempenho pode vir da forma como lidam com contextos longos e da granularidade das instruções de segurança.

O que isso muda na prática

Times de blue team precisam rever seus processos de patch. Se uma IA consegue criar um exploit para uma CVE em minutos, a janela entre a divulgação e o ataque se reduz drasticamente. Por outro lado, empresas de segurança podem usar esses modelos para testar suas próprias defesas de forma mais rápida.

Uma ação prática imediata: atualizar filtros de entrada e saída das APIs de IA para evitar que gerem código malicioso. Também vale monitorar o uso de modelos em ambientes de desenvolvimento – um funcionário pode, sem querer, usar o Mythos para gerar um exploit que depois vaza.

A tensão que fica

Isso escala? O custo do Mythos ainda é alto, mas a tendência de queda nos preços de inferência torna a automação de ataques viável em médio prazo. E se o modelo erra na exploração, quem assume a responsabilidade? O desenvolvedor que usou a ferramenta ou o provedor do modelo?

Outro ponto: o benchmark testa vulnerabilidades conhecidas. O salto para exploits zero-day ainda é grande, mas a direção é clara. A pergunta não é se isso vai acontecer, mas quando.

Conclusão

O benchmark da Carnegie Mellon mostra que a linha entre teste de segurança e ataque automatizado está ficando tênue. A pergunta que fica: você está preparado para defender seu sistema contra IAs que aprendem a explorar vulnerabilidades sozinhas?

Compartilhe este artigo

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário