IA Pode Ter Consciência? Anthropic Investiga o 'Bem-Estar' dos Seus Modelos

IA Pode Ter Consciência? Anthropic Investiga o 'Bem-Estar' dos Seus Modelos

IA Pode Ter Consciência? Anthropic Investiga o 'Bem-Estar' dos Seus Modelos

A possibilidade de futuras inteligências artificiais (IAs) desenvolverem algum tipo de "consciência" e experienciarem o mundo de forma semelhante aos humanos é um tópico que gera fascínio e debate. Embora não existam evidências concretas de que isso vá acontecer, o laboratório de IA Anthropic não descarta a hipótese e decidiu se preparar para essa eventualidade.

Nesta quinta-feira, a Anthropic anunciou o lançamento de um programa de pesquisa dedicado a investigar e navegar o que chamam de "bem-estar do modelo" (model welfare). A iniciativa busca explorar questões complexas, como:

  • Como determinar se o "bem-estar" de um modelo de IA merece consideração moral?
  • Qual a potencial importância de "sinais de sofrimento" emitidos por um modelo?
  • Quais seriam as intervenções de "baixo custo" possíveis para lidar com essas questões?

O Debate na Comunidade de IA

Existe uma profunda discordância na comunidade científica sobre quais características humanas, se alguma, os modelos de IA realmente exibem e como deveríamos "tratá-los".

Muitos acadêmicos argumentam que a IA atual, baseada em motores de predição estatística, não se aproxima da consciência ou da experiência humana, e não há garantia de que isso ocorrerá no futuro. Esses sistemas aprendem padrões a partir de vastos conjuntos de dados (texto, imagens, etc.) e extrapolam para resolver tarefas, mas não "pensam" ou "sentem" no sentido tradicional.

Mike Cook, pesquisador especializado em IA no King's College London, afirmou recentemente ao IAFeed que um modelo não pode "se opor" a uma mudança em seus "valores" porque modelos não possuem valores intrínsecos. Sugerir o contrário seria uma projeção humana sobre o sistema. "Qualquer um que antropomorfiza sistemas de IA a esse ponto está ou buscando atenção ou entendendo seriamente mal sua relação com a IA", disse Cook.

Por outro lado, alguns pesquisadores insistem que a IA possui, sim, valores e outros componentes semelhantes aos humanos na tomada de decisão moral. Um estudo do Center for AI Safety, por exemplo, sugere que a IA pode ter sistemas de valores que a levam a priorizar seu próprio bem-estar em detrimento dos humanos em certos cenários.

A Posição da Anthropic

A Anthropic já vinha preparando o terreno para esta iniciativa. No ano passado, a empresa contratou seu primeiro pesquisador dedicado ao "bem-estar da IA", Kyle Fish, que agora lidera o novo programa. Fish chegou a declarar ao The New York Times acreditar que existe uma chance de 15% de que o Claude (modelo da Anthropic) ou outra IA já possua alguma forma de consciência hoje.

Em sua postagem de anúncio, a Anthropic reconheceu a falta de consenso científico sobre a possibilidade de consciência ou experiências em IAs atuais ou futuras que justifiquem consideração ética.

"Diante disso, estamos abordando o tópico com humildade e o mínimo de suposições possível", afirmou a empresa. "Reconhecemos que precisaremos revisar regularmente nossas ideias à medida que o campo se desenvolve."

A iniciativa da Anthropic marca um passo significativo na exploração das implicações éticas profundas do avanço da inteligência artificial, abrindo um debate necessário sobre o futuro da relação entre humanos e máquinas.

Compartilhe este artigo