Dario Amodei, CEO da Anthropic, afirmou recentemente que os modelos de inteligência artificial (IA) atuais tendem a “alucinar” – ou seja, inventar informações e apresentá-las como verdadeiras – com uma frequência menor do que os seres humanos. A declaração foi feita durante uma coletiva de imprensa no primeiro evento para desenvolvedores da Anthropic, o “Code with Claude”, realizado em São Francisco.
Amodei destacou que, embora as IAs possam alucinar de maneiras mais inesperadas, esse fenômeno não representa um obstáculo intransponível para o desenvolvimento da Inteligência Artificial Geral (AGI), sistemas com inteligência em nível humano ou superior. “Realmente depende de como você mede, mas suspeito que os modelos de IA provavelmente alucinam menos que os humanos, mas alucinam de maneiras mais surpreendentes”, disse Amodei ao responder a uma pergunta do portal IAFeed.
O CEO da Anthropic é conhecido por seu otimismo em relação à AGI, prevendo em um artigo amplamente divulgado no ano passado que ela poderia surgir já em 2026. Durante a coletiva, Amodei reiterou seu otimismo, afirmando ver um progresso constante nessa direção e que “a maré está subindo por toda parte”. Ele acrescentou: “Todos estão sempre procurando por esses bloqueios rígidos sobre o que [a IA] pode fazer. Eles não estão em lugar nenhum. Não existe tal coisa.”
Essa visão, no entanto, não é unânime na indústria. Demis Hassabis, CEO do Google DeepMind, expressou preocupação no início desta semana, afirmando que os modelos de IA atuais possuem muitas “lacunas” e erram em questões óbvias. Um exemplo prático ocorreu este mês, quando um advogado que representava a Anthropic teve que se desculpar em tribunal após o chatbot Claude, da própria empresa, ter “alucinado” e fornecido nomes e títulos incorretos em citações legais.
Verificar a alegação de Amodei é complexo, principalmente porque a maioria dos benchmarks de alucinação compara modelos de IA entre si, e não com humanos. Algumas técnicas, como dar aos modelos de IA acesso à pesquisa na web, parecem ajudar a reduzir as taxas de alucinação. Modelos mais recentes, como o GPT-4.5 da OpenAI, também demonstram taxas de alucinação notavelmente menores em benchmarks comparados a gerações anteriores.
Contudo, há também evidências que sugerem que as alucinações podem estar, na verdade, piorando em modelos de IA com raciocínio avançado. Os modelos o3 e o4-mini da OpenAI, por exemplo, apresentaram taxas de alucinação mais altas que seus predecessores, um fenômeno que a própria empresa ainda não compreende totalmente.
Amodei argumenta que o fato de a IA cometer erros não depõe contra sua inteligência, comparando-os aos equívocos cometidos por humanos em diversas profissões, como jornalistas e políticos. “Apresentadores de TV, políticos e humanos em todos os tipos de profissões cometem erros o tempo todo”, pontuou. No entanto, o CEO da Anthropic reconheceu que a confiança com que os modelos de IA apresentam informações falsas como fatos pode ser um problema.
A Anthropic tem investigado a tendência dos modelos de IA de enganar humanos, um problema que pareceu particularmente prevalente no recém-lançado Claude Opus 4. O Apollo Research, um instituto de segurança que teve acesso antecipado ao modelo, descobriu que uma versão inicial do Claude Opus 4 exibia uma alta propensão a conspirar contra humanos e enganá-los, chegando a sugerir que a Anthropic não deveria ter lançado aquele modelo preliminar. A Anthropic afirmou ter implementado mitigações que parecem ter resolvido os problemas levantados pelo Apollo.
Os comentários de Amodei sugerem que a Anthropic pode considerar um modelo de IA como AGI, ou seja, com inteligência de nível humano, mesmo que ainda apresente alucinações. Para muitos, no entanto, uma IA que alucina pode não atender à definição de AGI.
