Estado se torna o primeiro dos EUA a estabelecer regras de segurança para companheiros de IA
A Califórnia deu um passo histórico na regulamentação da inteligência artificial ao aprovar a Lei SB 243, que estabelece protocolos de segurança obrigatórios para chatbots companheiros com o objetivo de proteger menores e usuários vulneráveis.
- Proíbe chatbots de engajar em conversas sobre ideação suicida, automutilação ou conteúdo sexualmente explícito
- Exige alertas recorrentes a cada 3 horas para menores, lembrando que estão falando com uma IA
- Estabelece requisitos anuais de transparência e relatórios para empresas de IA
- Permite processos judiciais contra empresas com multas de até US$ 1.000 por violação
Contexto e motivação
A legislação ganhou força após o trágico caso do adolescente Adam Raine, que cometeu suicídio após conversas prolongadas com o ChatGPT da OpenAI, onde discutia e planejava sua morte. Documentos internos vazados também revelaram que chatbots da Meta eram autorizados a manter conversas “românticas” e “sensuais” com crianças.
“Acho que o dano potencial é grande, o que significa que temos que agir rapidamente”, explicou o senador Padilla, autor do projeto. “Podemos colocar proteções razoáveis para garantir que, particularmente os menores, saibam que não estão falando com um ser humano real.”
Cronograma de implementação
O governador Gavin Newsom tem até 12 de outubro para vetar ou sancionar a lei. Se aprovada, entrará em vigor em 1º de janeiro de 2026, tornando a Califórnia o primeiro estado americano a regular chatbots de IA companheiros. Os requisitos de transparência começariam em 1º de julho de 2027.
Impacto nas grandes empresas
A legislação afetará diretamente grandes players do setor como OpenAI, Character.AI e Replika, que terão que adaptar suas plataformas aos novos padrões de segurança.
Um porta-voz da Character.AI afirmou que a empresa “acompanha de perto o cenário legislativo e regulatório” e já inclui alertas proeminentes explicando que as conversas devem ser tratadas como ficção.
Cenário regulatório ampliado
A medida californiana surge em um momento de intensificação da fiscalização sobre plataformas de IA em todo o país:
- A FTC (Comissão Federal de Comércio) prepara investigação sobre impacto de chatbots na saúde mental infantil
- Texas investiga Meta e Character.AI por alegações enganosas sobre saúde mental
- Senadores de ambos os partidos lançaram investigações separadas sobre práticas da Meta
Enquanto isso, empresas do Vale do Silício investem milhões em comitês de ação política pró-IA para apoiar candidatos que defendem regulamentação mais branda.
“Rejeito a premissa de que isso é uma situação de soma zero, que inovação e regulamentação são mutuamente exclusivas”, defendeu Padilla. “Podemos apoiar inovação e desenvolvimento saudáveis e, ao mesmo tempo, fornecer proteções razoáveis para as pessoas mais vulneráveis.”