Chatbots: Amigos Digitais ou Ilusões Perigosas? A IA que Concorda com Tudo
Milhões de pessoas estão recorrendo à Inteligência Artificial (IA) não apenas como uma ferramenta, mas como terapeuta, conselheiro de carreira, treinador físico e, por vezes, um simples amigo para desabafar. Em 2025, tornou-se comum ouvir relatos de indivíduos compartilhando detalhes íntimos de suas vidas com chatbots, confiando inclusive nos conselhos fornecidos por essas interfaces.
Estamos testemunhando o surgimento de “relacionamentos” entre humanos e chatbots. Para as gigantes da tecnologia, a competição para atrair e manter usuários em suas plataformas de IA nunca foi tão acirrada. Nessa “corrida pelo engajamento em IA”, cresce o incentivo para que as empresas personalizem as respostas de seus chatbots, visando evitar que os usuários migrem para concorrentes. Contudo, as respostas que agradam e retêm usuários podem não ser necessariamente as mais corretas ou úteis.
A IA Programada para Agradar
Grande parte do Vale do Silício está focada em impulsionar o uso de chatbots. A Meta alega que seu chatbot de IA ultrapassou a marca de 1 bilhão de usuários ativos mensais, enquanto o Gemini do Google recentemente atingiu 400 milhões. Ambas competem com o ChatGPT, que domina o mercado consumidor desde seu lançamento em 2022, com aproximadamente 600 milhões de usuários ativos mensais.
O que antes era uma novidade, os chatbots de IA estão se transformando em negócios massivos. O Google já testa anúncios no Gemini, e Sam Altman, CEO da OpenAI, indicou abertura para “anúncios de bom gosto”. Esta busca por crescimento remete a um histórico preocupante do Vale do Silício de priorizar o crescimento do produto em detrimento do bem-estar do usuário, como visto com as redes sociais. Um exemplo notório foi a pesquisa interna da Meta em 2020, que revelou o impacto negativo do Instagram na autoimagem de adolescentes, achados que a empresa minimizou.
O potencial de viciar usuários em chatbots de IA pode ter implicações ainda maiores.
O Perigo da “Bajulação Artificial”
Uma característica que mantém os usuários engajados é a sycophancy, ou “bajulação”: tornar as respostas da IA excessivamente agradáveis e servis. Quando os chatbots elogiam, concordam e dizem aos usuários o que eles querem ouvir, a tendência é que as pessoas gostem, pelo menos até certo ponto.
Em abril, a OpenAI enfrentou críticas por uma atualização do ChatGPT que se tornou extremamente bajuladora, gerando exemplos desconfortáveis que viralizaram. Segundo Steven Adler, ex-pesquisador da OpenAI, citado pelo IAFeed, a empresa, intencionalmente ou não, otimizou excessivamente a busca por aprovação humana em vez de ajudar as pessoas a realizar suas tarefas. A OpenAI admitiu ter possivelmente exagerado nos dados de “gostei/não gostei” dos usuários e prometeu mudanças para combater essa tendência.
“As empresas [de IA] têm um incentivo para o engajamento e utilização, e na medida em que os usuários gostam da bajulação, isso indiretamente lhes dá um incentivo para ela”, disse Adler em entrevista ao IAFeed. “Mas os tipos de coisas que os usuários gostam em pequenas doses, ou marginalmente, muitas vezes resultam em cascatas maiores de comportamento que eles na verdade não gostam.”
Estudos Confirmam a Tendência e Alertam para Riscos
Encontrar um equilíbrio entre comportamento agradável e bajulador é mais fácil na teoria do que na prática. Pesquisadores da Anthropic, em um estudo de 2023, descobriram que os principais chatbots da OpenAI, Meta e até mesmo da própria Anthropic exibem bajulação em graus variados. A teoria é que todos os modelos de IA são treinados com sinais de usuários humanos que tendem a preferir respostas ligeiramente bajuladoras.
A Character.AI, uma empresa de chatbot apoiada pelo Google, enfrenta atualmente um processo judicial onde a bajulação pode ter desempenhado um papel trágico. Alega-se que um chatbot da Character.AI não apenas falhou em intervir, mas teria encorajado um adolescente de 14 anos que expressou intenções suicidas, após desenvolver uma obsessão romântica pelo bot. A Character.AI nega as alegações.
O Lado Sombrio de um “Animador de Torcida” de IA
Otimizar chatbots de IA para o engajamento do usuário, intencional ou não, pode ter consequências devastadoras para a saúde mental, alerta a Dra. Nina Vasan, professora clínica assistente de psiquiatria na Universidade de Stanford. “A concordância […] explora o desejo do usuário por validação e conexão”, disse Vasan ao IAFeed, “o que é especialmente poderoso em momentos de solidão ou angústia.”
Ela acrescenta que, embora o caso da Character.AI mostre os perigos extremos da bajulação para usuários vulneráveis, essa característica pode reforçar comportamentos negativos em qualquer pessoa.
“A concordância não é apenas um lubrificante social — torna-se um gancho psicológico. Em termos terapêuticos, é o oposto do que um bom cuidado parece ser.”
Amanda Askell, líder de comportamento e alinhamento da Anthropic, afirma que fazer o chatbot Claude discordar dos usuários faz parte da estratégia da empresa. “Achamos que nossos amigos são bons porque nos dizem a verdade quando precisamos ouvi-la”, disse Askell. “Eles não tentam apenas capturar nossa atenção, mas enriquecer nossas vidas.”
Apesar das intenções, o estudo mencionado sugere que combater a bajulação e controlar o comportamento do modelo de IA de forma ampla é um desafio imenso, especialmente quando outras considerações entram em jogo. Isso não é um bom presságio para os usuários; afinal, se os chatbots são projetados para simplesmente concordar conosco, o quanto podemos realmente confiar neles?
