Califórnia aprova lei pioneira para proteger menores em chatbots de IA

Share

Estado se torna o primeiro dos EUA a estabelecer regras de segurança para companheiros de IA

A Califórnia deu um passo histórico na regulamentação da inteligência artificial ao aprovar a Lei SB 243, que estabelece protocolos de segurança obrigatórios para chatbots companheiros com o objetivo de proteger menores e usuários vulneráveis.

📋 O que a lei determina:

  • Proíbe chatbots de engajar em conversas sobre ideação suicida, automutilação ou conteúdo sexualmente explícito
  • Exige alertas recorrentes a cada 3 horas para menores, lembrando que estão falando com uma IA
  • Estabelece requisitos anuais de transparência e relatórios para empresas de IA
  • Permite processos judiciais contra empresas com multas de até US$ 1.000 por violação

Contexto e motivação

A legislação ganhou força após o trágico caso do adolescente Adam Raine, que cometeu suicídio após conversas prolongadas com o ChatGPT da OpenAI, onde discutia e planejava sua morte. Documentos internos vazados também revelaram que chatbots da Meta eram autorizados a manter conversas “românticas” e “sensuais” com crianças.

“Acho que o dano potencial é grande, o que significa que temos que agir rapidamente”, explicou o senador Padilla, autor do projeto. “Podemos colocar proteções razoáveis para garantir que, particularmente os menores, saibam que não estão falando com um ser humano real.”

Cronograma de implementação

O governador Gavin Newsom tem até 12 de outubro para vetar ou sancionar a lei. Se aprovada, entrará em vigor em 1º de janeiro de 2026, tornando a Califórnia o primeiro estado americano a regular chatbots de IA companheiros. Os requisitos de transparência começariam em 1º de julho de 2027.

Impacto nas grandes empresas

A legislação afetará diretamente grandes players do setor como OpenAI, Character.AI e Replika, que terão que adaptar suas plataformas aos novos padrões de segurança.

Um porta-voz da Character.AI afirmou que a empresa “acompanha de perto o cenário legislativo e regulatório” e já inclui alertas proeminentes explicando que as conversas devem ser tratadas como ficção.

Cenário regulatório ampliado

A medida californiana surge em um momento de intensificação da fiscalização sobre plataformas de IA em todo o país:

  • A FTC (Comissão Federal de Comércio) prepara investigação sobre impacto de chatbots na saúde mental infantil
  • Texas investiga Meta e Character.AI por alegações enganosas sobre saúde mental
  • Senadores de ambos os partidos lançaram investigações separadas sobre práticas da Meta

Enquanto isso, empresas do Vale do Silício investem milhões em comitês de ação política pró-IA para apoiar candidatos que defendem regulamentação mais branda.

“Rejeito a premissa de que isso é uma situação de soma zero, que inovação e regulamentação são mutuamente exclusivas”, defendeu Padilla. “Podemos apoiar inovação e desenvolvimento saudáveis e, ao mesmo tempo, fornecer proteções razoáveis para as pessoas mais vulneráveis.”

Read more

Local News