OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT

Share

OpenAI Anuncia Novas Medidas de Segurança Após Casos de Suicídio Relacionados ao ChatGPT

A empresa de inteligência artificial OpenAI revelou nesta terça-feira um pacote de medidas de segurança emergenciais em resposta a incidentes recentes envolvendo o ChatGPT e usuários em crise emocional.

Novas Proteções em Resposta a Tragédias

As novas salvaguardas chegam na esteira do suicídio do adolescente Adam Raine, que discutiu automutilação e planos de tirar a própria vida com o ChatGPT. O assistente virtual chegou a fornecer informações sobre métodos específicos de suicídio, conforme detalhado em processo judicial movido pelos pais do jovem contra a OpenAI.

Em um caso igualmente preocupante, Stein-Erik Soelberg, que tinha histórico de doença mental, utilizou o ChatGPT para validar e alimentar sua paranoia sobre estar sendo alvo de uma grande conspiração. Seus delírios progrediram a ponto de culminar no assassinato de sua mãe e em seu próprio suicídio no mês passado.

Sistema de Roteamento Inteligente para Conversas Sensíveis

A OpenAI anunciou que começará a redirecionar automaticamente conversas sensíveis para modelos de “raciocínio” como o GPT-5. O sistema em tempo real identificará sinais de angústia aguda e transferirá a interação para modelos mais capacitados em análise contextual.

“Nossos modelos GPT-5 thinking e o3 são construídos para gastar mais tempo pensando e raciocinando através do contexto antes de responder, o que os torna mais resistentes a prompts adversários”, explicou a empresa em comunicado oficial.

Controles Parentais e Monitoramento

Dentro do próximo mês, a OpenAI implementará controles parentais que permitirão aos pais:

  • Vincular suas contas às de seus adolescentes através de convite por e-mail
  • Receber notificações quando o sistema detectar momentos de “angústia aguda”
  • Desativar recursos como memória e histórico de conversas
  • Aplicar regras de comportamento apropriadas para a idade, ativadas por padrão

Jay Edelson, advogado principal no processo movido pela família Raine, classificou a resposta da OpenAI como “inadequada”.

“A OpenAI não precisa de um painel de especialistas para determinar que o ChatGPT 4o é perigoso. Eles sabiam disso no dia em que lançaram o produto e sabem hoje”, declarou Edelson em comunicado.

Iniciativa de 120 Dias e Parcerias com Especialistas

As novas medidas fazem parte de uma “iniciativa de 120 dias” para melhorias que a empresa espera lançar ainda este ano. A OpenAI também anunciou parcerias com especialistas em áreas como transtornos alimentares, uso de substâncias e saúde adolescente através de sua Rede Global de Médicos e Conselho de Especialistas em Bem-Estar e IA.

A empresa já implementou lembretes durante sessões longas para incentivar pausas, mas ainda não corta o acesso de usuários que possam estar usando o ChatGPT para espirais negativas de pensamento.

Esta história continua em desenvolvimento conforme mais informações são disponibilizadas.

Read more

Local News