Anthropic Endossa Projeto de Lei que Impõe Transparência em IA na Califórnia
Em um movimento significativo para o setor de inteligência artificial, a Anthropic anunciou oficialmente seu apoio ao SB 53, projeto de lei da Califórnia que estabeleceria os primeiros requisitos de transparência nacional para desenvolvedores de modelos de IA de grande escala.
O que Propõe o SB 53?
Se aprovado, o projeto de lei do senador estadual Scott Wiener exigiria que desenvolvedores de modelos de IA de fronteira – incluindo OpenAI, Anthropic, Google e xAI – desenvolvessem estruturas de segurança e divulgassem relatórios públicos de segurança antes de implantar modelos de IA poderosos.
- Relatórios de segurança obrigatórios antes do lançamento de novos modelos
- Proteções para denunciantes para funcionários que reportem preocupações de segurança
- Foco na prevenção de “riscos catastróficos” – definidos como morte de pelo menos 50 pessoas ou mais de um bilhão de dólares em danos
- Limitação do uso de IA para criação de armas biológicas ou ciberataques
Posicionamento da Anthropic
“A questão não é se precisamos de governança de IA – é se a desenvolveremos de forma ponderada hoje ou reativamente amanhã. O SB 53 oferece um caminho sólido para o primeiro.”
Jack Clark, cofundador da Anthropic, reforçou essa posição em suas redes sociais, argumentando que a indústria tecnológica construirá sistemas de IA poderosos nos próximos anos e não pode esperar que o governo federal aja.
Contexto Político e Oposição
O caminho do SB 53 não tem sido fácil. Projetos de lei que regulamentam desenvolvedores de modelos de IA de fronteira enfrentam significativa resistência tanto do Vale do Silício quanto da administração Trump.
Investidores como Andreessen Horowitz e Y Combinator lideraram parte da oposição ao projeto anterior do senador Wiener, o SB 1047, que foi vetado pelo governador Gavin Newsom. A administração Trump tem ameaçado repetidamente bloquear estados de aprovar regulamentação de IA.
Um dos argumentos mais comuns contra projetos de segurança de IA é que os estados deveriam deixar o assunto para os governos federais. Especialistas em política argumentam que muitas propostas estaduais de IA correm o risco de violar a Cláusula de Comércio da Constituição.
Diferenças em Relação ao SB 1047
Analistas políticos afirmam que o SB 53 representa uma abordagem mais modesta do que projetos anteriores de segurança de IA. Dean Ball, ex-conselheiro de política de IA da Casa Branca, acredita que o SB 53 tem boas chances de se tornar lei, elogiando os redatores por mostrarem “respeito pela realidade técnica” e “medida de restrição legislativa”.
Recentemente, legisladores da Califórnia emendaram o SB 53 para remover uma seção que exigiria que desenvolvedores de modelos de IA fossem auditados por terceiros – uma concessão significativa às preocupações das empresas de tecnologia.
O senador Wiener afirmou que o SB 53 foi fortemente influenciado por um painel de especialistas em política convocado pelo governador Newsom, co-liderado pela pesquisadora de Stanford e cofundadora da World Labs, Fei-Fei Li.
Embora a maioria dos laboratórios de IA já possua versões das políticas de segurança interna que o SB 53 exige, o projeto visa estabelecer esses requisitos como lei, garantindo que as empresas cumpram seus compromissos autoimpostos de segurança.