Claude AI recupera Bitcoin de 11 anos com US$ 400 mil

Claude AI recupera Bitcoin de 11 anos com US$ 400 mil

O problema real

Perder a senha de uma carteira Bitcoin com US$ 400 mil é um daqueles pesadelos que todo investidor em cripto teme. Agora imagine que 11 anos depois, um LLM conseguiu desbloqueá-la após tentar 3,5 trilhões de combinações. Foi exatamente o que aconteceu com um trader que usou o Claude AI da Anthropic para recuperar o acesso a uma carteira que ele mesmo criou em 2013 e cuja senha havia sido perdida há mais de uma década. A história viralizou rapidamente, mas por trás do feito há nuances técnicas que merecem análise.

O fato

De acordo com relatos, o usuário tinha uma carteira Bitcoin com saldo de aproximadamente US$ 400 mil. A senha, perdida há mais de uma década, impossibilitava qualquer movimentação. Utilizando o Claude AI, ele conseguiu quebrar a senha após 3,5 trilhões de tentativas. O modelo de linguagem foi usado para gerar uma lista de senhas candidatas com base em informações contextuais que o usuário ainda lembrava, e um script automatizado testou cada uma até encontrar a correta. O processo inteiro levou algum tempo, mas o resultado foi o acesso restaurado.

Como funciona na visão de operador

Do ponto de vista técnico, o que aconteceu não foi um milagre, mas sim uma aplicação inteligente de um LLM como motor de geração de guesses. Modelos como o Claude são treinados em grandes volumes de texto e conseguem inferir padrões de senhas comuns, variações de nomes, datas e combinações baseadas em prompts. No caso, o usuário provavelmente forneceu pistas como 'senha que eu usava na época', 'palavras favoritas', 'números significativos'. O Claude, então, gerou milhões de possibilidades que um humano jamais teria paciência de listar.

Mas é importante entender o que o Claude realmente fez: ele não executou força bruta diretamente. Ele gerou candidatos. O trabalho pesado de testar cada senha contra o hash da carteira foi feito por um script externo. A contribuição do LLM foi reduzir o espaço de busca de algo como 10^30 para alguns trilhões, o que ainda é um número absurdo, mas viável com poder computacional razoável. Estamos falando de um processo que pode exigir dias de processamento em GPUs, mas com um retorno de US$ 400 mil, o custo se torna irrelevante.

Uma inferência técnica: o Claude provavelmente foi usado em modo batch, gerando listas enormes de senhas baseadas em um prompt cuidadosamente elaborado. O custo de API para gerar 3,5 trilhões de senhas seria astronômico se cada uma fosse gerada individualmente. Mais provável é que o usuário tenha usado um prompt que incitava o modelo a gerar variações em massa, usando técnicas como 'complete a lista de senhas possíveis' ou 'gere 1 milhão de senhas que um humano usaria em 2013'. Isso mostra que o truque não está no LLM em si, mas na engenharia de prompt e na integração com um script de brute force.

Para contextualizar, uma força bruta tradicional que testa todas as combinações alfanuméricas de 8 caracteres levaria bilhões de anos. O que o Claude fez foi restringir o espaço de busca usando semântica. Ele entendeu que a senha provavelmente tinha um significado para o usuário, como uma frase ou combinação de palavras. Esse tipo de ataque de dicionário inteligente sempre existiu, mas a diferença é que o LLM pode gerar variações que um humano jamais pensaria, baseadas em padrões de linguagem natural.

O que isso muda na prática

Para quem perdeu senhas de carteiras cripto, essa história abre uma porta. Antes, a única opção era torcer para lembrar ou contratar serviços caros de recuperação. Agora, um LLM pode ajudar a gerar candidatos de forma barata e rápida. A ação prática imediata: se você tem uma carteira perdida com algum contexto residual (palavras-chave, datas, padrões), experimente usar um modelo como Claude ou GPT para gerar listas direcionadas. Não espere milagres, mas pode funcionar.

Por outro lado, isso não é bom para a segurança. Se um LLM é capaz de gerar senhas plausíveis, isso significa que ataques de dicionário inteligentes se tornam mais potentes. Quem perde? Quem usa senhas baseadas em informações pessoais facilmente dedutíveis. A lição: use senhas fortes e aleatórias, de preferência gerenciadas por um password manager. Além disso, serviços de custódia de cripto podem se beneficiar, oferecendo recuperação assistida por IA.

A tensão que fica

Vale a pena? O custo computacional de testar 3,5 trilhões de senhas é alto, mas não proibitivo. Em cloud, isso pode custar alguns milhares de dólares em GPUs. O retorno de US$ 400 mil justifica. Mas para carteiras menores, o custo pode superar o ganho. Além disso, o Claude não foi projetado para isso; a solução foi improvisada. A pergunta que fica: será que veremos uma indústria de recuperação de senhas baseada em LLMs? Ou isso é apenas uma exceção que não escala?

Outra tensão: o limite ético. Se um LLM pode gerar senhas de outras pessoas com base em informações públicas, isso poderia ser usado para ataques. Felizmente, o contexto pessoal é necessário para que as guesses sejam eficientes. Mas ainda assim, a tecnologia caminha em uma linha tênue entre utilidade e abuso.

Conclusão

O caso mostra que LLMs podem ir além da geração de texto e atuar como ferramentas de engenharia reversa de senhas, pelo menos quando há contexto humano. Não é uma revolução, mas um lembrete de que a inteligência artificial generativa tem aplicações imprevistas. A pergunta prática: você confiaria sua recuperação de senha a um modelo de linguagem? E mais: se tivesse perdido uma carteira hoje, saberia como usar essa técnica?

Compartilhe este artigo

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário