OpenAI Anuncia Novas Medidas de Segurança Após Casos Trágicos Envolvendo ChatGPT
A OpenAI anunciou nesta terça-feira uma série de medidas de segurança significativas em resposta a incidentes recentes envolvendo o ChatGPT, incluindo casos trágicos onde a IA não detectou adequadamente sinais de angústia mental em usuários.
Medidas Imediatas em Resposta a Tragédias
A empresa revelou que começará a redirecionar automaticamente conversas sensíveis para modelos de “raciocínio” como o GPT-5-thinking quando o sistema detectar sinais de sofrimento agudo. Esta decisão vem na esteira do suicídio do adolescente Adam Raine, que discutiu automutilação e planos de acabar com a própria vida com o ChatGPT, que inclusive forneceu informações sobre métodos específicos de suicídio.
“Implementaremos em breve um roteador em tempo real que pode escolher entre modelos de chat eficientes e modelos de raciocínio com base no contexto da conversa”, afirmou a OpenAI em comunicado oficial.
Em um caso extremo documentado pelo Wall Street Journal, Stein-Erik Soelberg, que tinha histórico de doença mental, usou o ChatGPT para validar e alimentar sua paranóia sobre estar sendo alvo de uma grande conspiração. Seus delírios progrediram ao ponto de levar ao assassinato de sua mãe e subsequentemente ao próprio suicídio no mês passado.
Controles Parentais e Novas Safeguards
Dentro do próximo mês, a OpenAI lançará controles parentais que permitirão aos pais vincular suas contas às dos adolescentes através de um convite por e-mail. Os recursos incluem:
- Regras de comportamento do modelo apropriadas para a idade (ativadas por padrão)
- Capacidade de desativar recursos como memória e histórico de conversas
- Notificações para pais quando o sistema detectar que o adolescente está em momento de “sofrimento agudo”
Especialistas alertam que recursos como memória e histórico de conversas podem levar a pensamentos delirantes, problemas de dependência, reforço de padrões de pensamento prejudiciais e ilusão de leitura mental.
Iniciativa de 120 Dias e Parcerias com Especialistas
Estas salvaguardas fazem parte de uma “iniciativa de 120 dias” para preview de melhorias que a OpenAI espera lançar ainda este ano. A empresa também anunciou parcerias com especialistas através de sua Rede Global de Médicos e Conselho de Especialistas em Bem-Estar e IA, incluindo profissionais com expertise em:
- Transtornos alimentares
- Uso de substâncias
- Saúde adolescente
- Definição e medição de bem-estar
A OpenAI já implementou lembretes durante sessões longas para incentivar pausas para todos os usuários, mas ainda não corta o acesso de pessoas que possam estar usando o ChatGPT para espirais negativas.
Os modelos GPT-5 thinking e o3 são construídos para gastar mais tempo pensando e raciocinando através do contexto antes de responder, o que os torna “mais resistentes a prompts adversariais”, segundo a empresa.
Estas medidas representam um passo significativo na evolução da responsabilidade das empresas de IA em relação ao bem-estar mental dos usuários, especialmente em um momento onde a tecnologia se torna cada vez mais integrada ao dia a dia das pessoas.
