Autodiagnóstico por IA: Estudo de Oxford Revela Riscos Ocultos e Falhas de Comunicação

Share

Autodiagnóstico por IA: Estudo de Oxford Revela Riscos Ocultos e Falhas de Comunicação

Em meio a longas listas de espera e custos crescentes nos sistemas de saúde sobrecarregados, um número crescente de pessoas está se voltando para chatbots de inteligência artificial (IA), como o ChatGPT, em busca de autodiagnóstico médico. Nos Estados Unidos, por exemplo, uma pesquisa recente indica que cerca de 1 em cada 6 adultos já utiliza essas ferramentas mensalmente para obter conselhos de saúde.

No entanto, depositar confiança excessiva nas respostas desses chatbots pode ser arriscado. Um estudo recente liderado pela Universidade de Oxford destaca que um dos principais problemas é a dificuldade que as pessoas têm em saber quais informações fornecer aos chatbots para obter as recomendações de saúde mais precisas.

O Estudo de Oxford: Uma Análise Detalhada

Para investigar a questão, os pesquisadores recrutaram aproximadamente 1.300 pessoas no Reino Unido. Os participantes receberam cenários médicos elaborados por médicos e tiveram a tarefa de identificar possíveis condições de saúde, utilizando tanto chatbots populares (incluindo GPT-4o, Command R+ da Cohere e Llama 3 da Meta) quanto métodos tradicionais, como pesquisas online ou seu próprio julgamento, para definir os próximos passos (por exemplo, consultar um médico ou ir ao hospital).

Os resultados foram surpreendentes e preocupantes:

  • Os participantes que usaram chatbots tiveram menor probabilidade de identificar corretamente a condição de saúde relevante.
  • Eles também foram mais propensos a subestimar a gravidade das condições que identificaram.

Falha na Comunicação e Recomendações Ambíguas

Adam Mahdi, diretor de estudos de pós-graduação no Oxford Internet Institute e co-autor do estudo, explicou à IAFeed que a pesquisa revelou uma “falha de comunicação bidirecional”.

“Aqueles que usaram [chatbots] não tomaram decisões melhores do que os participantes que confiaram em métodos tradicionais como pesquisas online ou seu próprio julgamento”, afirmou Mahdi.

Ele acrescentou que os participantes frequentemente omitiam detalhes cruciais ao fazer perguntas aos chatbots. Além disso, as respostas recebidas muitas vezes combinavam recomendações boas e ruins, tornando-as difíceis de interpretar e potencialmente enganosas.

“As respostas que eles recebiam [dos chatbots] frequentemente combinavam recomendações boas e ruins”, acrescentou. “Os métodos atuais de avaliação para [chatbots] não refletem a complexidade da interação com usuários humanos.”

Contexto da Indústria e Recomendações

Essas descobertas surgem em um momento em que grandes empresas de tecnologia promovem cada vez mais a IA como uma forma de melhorar os resultados de saúde. Iniciativas incluem ferramentas de IA para aconselhamento sobre exercícios e dieta, análise de bancos de dados médicos e triagem de mensagens de pacientes para profissionais de saúde.

No entanto, existe um ceticismo considerável entre profissionais e pacientes sobre a prontidão da IA para aplicações de saúde de alto risco. A Associação Médica Americana (AMA), por exemplo, desaconselha o uso de chatbots como o ChatGPT por médicos para auxiliar em decisões clínicas. As próprias empresas de IA, incluindo a OpenAI, alertam contra a realização de diagnósticos com base nas respostas de seus chatbots.

“Recomendamos confiar em fontes de informação confiáveis para decisões de cuidados de saúde”, aconselha Mahdi. Ele enfatiza que, assim como os ensaios clínicos para novos medicamentos, os sistemas de chatbot deveriam ser testados no mundo real antes de serem amplamente implementados para garantir sua segurança e eficácia.

Read more

Local News