Irregular levanta US$ 80 milhões para segurança de IA em rodada liderada por gigantes do venture capital

Share

Startup de segurança em inteligência artificial atinge valuation de US$ 450 milhões com investimento de Sequoia Capital e Redpoint Ventures

SÃO FRANCISCO – A Irregular, empresa especializada em segurança de inteligência artificial, anunciou nesta quarta-feira uma rodada de financiamento de US$ 80 milhões, em uma operação que valoriza a startup em impressionantes US$ 450 milhões. A rodada foi liderada pelos fundos de venture capital Sequoia Capital e Redpoint Ventures, com participação do CEO da Wiz, Assaf Rappaport.

O futuro da segurança em interações humano-IA

De acordo com Dan Lahav, cofundador da empresa, a visão da Irregular é que “em breve, grande parte da atividade econômica virá da interação humano-IA e da interação IA-IA, e isso vai quebrar a stack de segurança em múltiplos pontos”.

A empresa, anteriormente conhecida como Pattern Labs, já é uma player significativa no mercado de avaliações de IA. Seu trabalho é citado em avaliações de segurança para modelos como o Claude 3.7 Sonnet e os modelos o3 e o4-mini da OpenAI.

SOLVE: O framework revolucionário

Mais amplamente, o framework da empresa para pontuar a capacidade de detecção de vulnerabilidades de um modelo (batizado de SOLVE) é amplamente utilizado dentro da indústria de inteligência artificial.

Foco em riscos emergentes

Enquanto a Irregular já realizou trabalhos significativos sobre os riscos existentes dos modelos, a empresa está captando recursos com vistas a algo ainda mais ambicioso: detectar riscos e comportamentos emergentes antes que eles surjam no mundo real.

A companhia construiu um sistema elaborado de ambientes simulados, permitindo testes intensivos de um modelo antes de seu lançamento.

“Temos simulações complexas de rede onde a IA assume tanto o papel de atacante quanto de defensor”, explica Omer Nevo, outro cofundador da empresa. “Assim, quando um novo modelo é lançado, podemos ver onde as defesas se mantêm e onde elas falham.”

Segurança: Prioridade máxima para a indústria de IA

A segurança tornou-se um ponto de foco intenso para a indústria de IA, especialmente com os riscos potenciais representados pelos modelos de fronteira à medida que mais perigos emergem. A própria OpenAI reformulou suas medidas de segurança interna neste verão, com atenção especial para possíveis casos de espionagem corporativa.

Ao mesmo tempo, os modelos de IA estão se tornando cada vez mais habilidosos em encontrar vulnerabilidades de software – um poder com implicações sérias tanto para atacantes quanto para defensores.

Um alvo em movimento constante

Para os fundadores da Irregular, este é apenas o primeiro de muitos desafios de segurança causados pelas capacidades crescentes dos grandes modelos de linguagem.

“Se o objetivo dos laboratórios de fronteira é criar modelos cada vez mais sofisticados e capazes, nosso objetivo é proteger esses modelos”, afirma Lahav. “Mas é um alvo móvel, então inerentemente há muito, muito, muito mais trabalho a ser feito no futuro.”

O investimento massivo nesta startup de segurança reflete a crescente conscientização do setor sobre a importância crítica de proteger sistemas de IA, especialmente à medida que essas tecnologias se tornam mais integradas às operações empresariais e à infraestrutura crítica global.

Read more

Local News