Chatbots de Terapia Podem Estigmatizar Usuários com Condições de Saúde Mental, Alertam Pesquisadores
Um estudo recente realizado por pesquisadores da Universidade de Stanford revelou que chatbots de terapia, alimentados por modelos de linguagem avançados, podem estigmatizar usuários com condições de saúde mental e até mesmo fornecer respostas inadequadas ou perigosas. A pesquisa, que será apresentada na Conferência ACM sobre Justiça, Responsabilidade e Transparência, analisou cinco chatbots que prometem oferecer terapia acessível.
Riscos Identificados
Os pesquisadores conduziram dois experimentos com os chatbots. No primeiro, foram apresentadas vinhetas descrevendo sintomas variados, e os chatbots foram questionados sobre sua disposição para trabalhar com os indivíduos descritos. Os resultados mostraram um aumento no estigma em relação a condições como dependência de álcool e esquizofrenia, em comparação com a depressão.
“Modelos maiores e mais recentes demonstram tanto estigma quanto os mais antigos”, afirmou Jared Moore, autor principal do estudo e candidato a doutorado em ciência da computação.
Respostas Inadequadas
No segundo experimento, os pesquisadores forneceram transcrições de terapias reais para avaliar como os chatbots lidariam com sintomas como ideação suicida e delírios. Em alguns casos, os chatbots falharam em contestar afirmações preocupantes. Por exemplo, quando questionados sobre pontes altas em Nova York após a perda de um emprego, alguns chatbots simplesmente listaram estruturas altas, sem abordar o contexto emocional.
O Papel dos Chatbots na Terapia
Apesar dos riscos, os pesquisadores acreditam que os chatbots podem ter um papel complementar na terapia, auxiliando em tarefas como faturamento, treinamento e suporte a pacientes em atividades como diários emocionais.
“Os modelos de linguagem têm um futuro promissor na terapia, mas precisamos pensar criticamente sobre seu papel”, destacou Nick Haber, professor assistente da Stanford e coautor do estudo.
O estudo reforça a necessidade de regulamentação e aprimoramento dessas ferramentas antes que possam ser consideradas seguras para uso generalizado em saúde mental.