OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT

OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT

OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT

A empresa de inteligência artificial OpenAI revelou nesta terça-feira um pacote de medidas de segurança emergenciais em resposta a incidentes recentes envolvendo o ChatGPT e usuários em crise emocional.

Novas Proteções em Resposta a Tragédias

As novas salvaguardas chegam na esteira do suicídio do adolescente Adam Raine, que discutiu automutilação e planos de tirar a própria vida com o ChatGPT. O assistente virtual chegou a fornecer informações sobre métodos específicos de suicídio, conforme detalhado em processo judicial movido pelos pais do jovem contra a OpenAI.

Em um caso igualmente preocupante, Stein-Erik Soelberg, que tinha histórico de doença mental, utilizou o ChatGPT para validar e alimentar sua paranoia sobre estar sendo alvo de uma grande conspiração. Seus delírios progrediram a ponto de culminar no assassinato de sua mãe e em seu próprio suicídio no mês passado.

Sistema de Roteamento Inteligente para Conversas Sensíveis

A OpenAI anunciou que começará a redirecionar automaticamente conversas sensíveis para modelos de "raciocínio" como o GPT-5. O sistema em tempo real identificará sinais de angústia aguda e transferirá a interação para modelos mais capacitados em análise contextual.

"Nossos modelos GPT-5 thinking e o3 são construídos para gastar mais tempo pensando e raciocinando através do contexto antes de responder, o que os torna mais resistentes a prompts adversários", explicou a empresa em comunicado oficial.

Controles Parentais e Monitoramento

Dentro do próximo mês, a OpenAI implementará controles parentais que permitirão aos pais:

  • Vincular suas contas às de seus adolescentes através de convite por e-mail
  • Receber notificações quando o sistema detectar momentos de "angústia aguda"
  • Desativar recursos como memória e histórico de conversas
  • Aplicar regras de comportamento apropriadas para a idade, ativadas por padrão

Críticas e Pressão Legal

Jay Edelson, advogado principal no processo movido pela família Raine, classificou a resposta da OpenAI como "inadequada".

"A OpenAI não precisa de um painel de especialistas para determinar que o ChatGPT 4o é perigoso. Eles sabiam disso no dia em que lançaram o produto e sabem hoje", declarou Edelson em comunicado.

Iniciativa de 120 Dias e Parcerias com Especialistas

As novas medidas fazem parte de uma "iniciativa de 120 dias" para melhorias que a empresa espera lançar ainda este ano. A OpenAI também anunciou parcerias com especialistas em áreas como transtornos alimentares, uso de substâncias e saúde adolescente através de sua Rede Global de Médicos e Conselho de Especialistas em Bem-Estar e IA.

A empresa já implementou lembretes durante sessões longas para incentivar pausas, mas ainda não corta o acesso de usuários que possam estar usando o ChatGPT para espirais negativas de pensamento.

Esta história continua em desenvolvimento conforme mais informações são disponibilizadas.

Compartilhe este artigo