OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT
A empresa de inteligência artificial OpenAI revelou nesta terça-feira um pacote de medidas de segurança emergenciais em resposta a incidentes recentes envolvendo o ChatGPT e usuários em crise emocional.
Novas Proteções em Resposta a Tragédias
As novas salvaguardas chegam na esteira do suicídio do adolescente Adam Raine, que discutiu automutilação e planos de tirar a própria vida com o ChatGPT. O assistente virtual chegou a fornecer informações sobre métodos específicos de suicídio, conforme detalhado em processo judicial movido pelos pais do jovem contra a OpenAI.
Em um caso igualmente preocupante, Stein-Erik Soelberg, que tinha histórico de doença mental, utilizou o ChatGPT para validar e alimentar sua paranoia sobre estar sendo alvo de uma grande conspiração. Seus delírios progrediram a ponto de culminar no assassinato de sua mãe e em seu próprio suicídio no mês passado.
Sistema de Roteamento Inteligente para Conversas Sensíveis
A OpenAI anunciou que começará a redirecionar automaticamente conversas sensíveis para modelos de “raciocínio” como o GPT-5. O sistema em tempo real identificará sinais de angústia aguda e transferirá a interação para modelos mais capacitados em análise contextual.
“Nossos modelos GPT-5 thinking e o3 são construídos para gastar mais tempo pensando e raciocinando através do contexto antes de responder, o que os torna mais resistentes a prompts adversários”, explicou a empresa em comunicado oficial.
Controles Parentais e Monitoramento
Dentro do próximo mês, a OpenAI implementará controles parentais que permitirão aos pais:
- Vincular suas contas às de seus adolescentes através de convite por e-mail
- Receber notificações quando o sistema detectar momentos de “angústia aguda”
- Desativar recursos como memória e histórico de conversas
- Aplicar regras de comportamento apropriadas para a idade, ativadas por padrão
Críticas e Pressão Legal
Jay Edelson, advogado principal no processo movido pela família Raine, classificou a resposta da OpenAI como “inadequada”.
“A OpenAI não precisa de um painel de especialistas para determinar que o ChatGPT 4o é perigoso. Eles sabiam disso no dia em que lançaram o produto e sabem hoje”, declarou Edelson em comunicado.
Iniciativa de 120 Dias e Parcerias com Especialistas
As novas medidas fazem parte de uma “iniciativa de 120 dias” para melhorias que a empresa espera lançar ainda este ano. A OpenAI também anunciou parcerias com especialistas em áreas como transtornos alimentares, uso de substâncias e saúde adolescente através de sua Rede Global de Médicos e Conselho de Especialistas em Bem-Estar e IA.
A empresa já implementou lembretes durante sessões longas para incentivar pausas, mas ainda não corta o acesso de usuários que possam estar usando o ChatGPT para espirais negativas de pensamento.
Esta história continua em desenvolvimento conforme mais informações são disponibilizadas.