Anthropic Altera Política de Dados: Usuários do Claude Têm até 28 de Setembro para Decidir sobre Uso de Conversas no Treinamento de IA

Share

Mudança Radical na Política de Privacidade

A Anthropic, empresa desenvolvedora do assistente de IA Claude, está implementando uma mudança significativa em sua política de tratamento de dados dos usuários. Todos os usuários das versões consumer do Claude têm até o dia 28 de setembro para decidir se desejam que suas conversas sejam utilizadas no treinamento dos modelos de inteligência artificial da empresa.

O Que Está Mudando Exatamente?

Anteriormente, a Anthropic não utilizava dados de conversas de usuários consumer para treinar seus modelos de IA. Agora, a empresa pretende usar essas interações – incluindo sessões de programação – para melhorar seus sistemas. A retenção de dados também será estendida para cinco anos para aqueles que não optarem por sair do programa.

⚠️ Atenção: Esta mudança afeta usuários do Claude Free, Pro e Max, incluindo usuários do Claude Code. Clientes empresariais que utilizam Claude Gov, Claude for Work, Claude for Education ou acesso via API não serão impactados por estas alterações.

Por Que Essa Mudança?

Em comunicado oficial, a Anthropic justifica a mudança como uma questão de escolha do usuário e melhoria da segurança dos modelos. A empresa afirma que os dados ajudarão a “melhorar a segurança do modelo, tornando nossos sistemas de detecção de conteúdo prejudicial mais precisos e menos propensos a sinalizar conversas inofensivas”.

No entanto, analistas do setor apontam que a necessidade de dados de treinamento de alta qualidade é o principal motivador. Como todas as empresas de modelos de linguagem grandes, a Anthropic precisa de vastas quantidades de dados conversacionais do mundo real para manter sua competitividade frente a rivais como OpenAI e Google.

Preocupações com a Privacidade e Design de Interface

Especialistas em privacidade expressaram preocupação com a implementação da nova política. Novos usuários escolherão sua preferência durante o cadastro, mas usuários existentes enfrentarão um pop-up com texto grande anunciando “Atualizações dos Termos e Políticas do Consumidor” e um botão “Aceitar” proeminente em preto.

O toggle para permissões de treinamento aparece em letras menores abaixo e vem automaticamente configurado como “Ativado”. Este design levanta questões sobre se os usuários podem clicar rapidamente em “Aceitar” sem perceber que estão concordando com o compartilhamento de dados.

🔍 Contexto Regulatório: A Federal Trade Commission (FTC) já alertou que empresas de IA correm risco de ação enforcement se engajarem em “mudar sorrateiramente seus termos de serviço ou política de privacidade, ou enterrar uma divulgação atrás de hyperlinks, em juridiquês ou em letras miúdas”.

Confusão no Setor e Paralelos com OpenAI

Estas mudanças refletem mudanças mais amplas nas políticas de dados do setor, enquanto empresas como Anthropic e OpenAI enfrentam escrutínio crescente sobre suas práticas de retenção de dados. A OpenAI, por exemplo, está atualmente lutando contra uma ordem judicial que força a empresa a reter todas as conversas do ChatGPT indefinidamente, incluindo chats excluídos.

O que é alarmante é o quanto de confusão todas essas políticas em mudança estão criando para os usuários, muitos dos quais permanecem alheios a elas. A complexidade em torno da IA torna o consentimento significativo do usuário quase inatingível, segundo alertam especialistas em privacidade há muito tempo.

O Que os Usuários Precisam Fazer?

Usuários do Claude devem:

  • Ficar atentos aos pop-ups de atualização de termos
  • Ler cuidadosamente as opções apresentadas
  • Decidir conscientemente até 28 de setembro se desejam contribuir com seus dados para treinamento
  • Configurar preferências de privacidade conforme necessário

Esta mudança representa mais um capítulo no contínuo debate entre inovação em IA e proteção de privacidade do usuário – um equilíbrio que continuará a evoluir conforme a tecnologia avança.

Read more

Local News