Meta corrige falha de segurança que expunha conversas privadas de usuários em seu chatbot de IA

Share

Meta corrige falha de segurança que expunha conversas privadas de usuários em seu chatbot de IA

A Meta, empresa responsável por plataformas como Facebook e Instagram, resolveu uma vulnerabilidade crítica em seu chatbot de inteligência artificial (IA) que permitia que usuários acessassem e visualizassem prompts privados e respostas geradas por IA de outros usuários.

O problema foi identificado por Sandeep Hodkasia, fundador da empresa de testes de segurança Appsecure, que recebeu um prêmio de US$ 10.000 pelo programa de recompensa por bugs da Meta. A falha foi reportada em 26 de dezembro de 2024 e corrigida em 24 de janeiro de 2025, segundo Hodkasia. A Meta confirmou que não há evidências de que a vulnerabilidade tenha sido explorada de forma maliciosa.

Como a falha funcionava

Hodkasia descobriu que, ao editar um prompt no chatbot da Meta, os servidores da empresa atribuíam um número único à solicitação e à resposta gerada pela IA. Ao analisar o tráfego de rede em seu navegador, ele percebeu que era possível alterar esse número e acessar prompts e respostas de outros usuários. Isso ocorria porque os servidores não verificavam adequadamente se o usuário que solicitava os dados tinha autorização para vê-los.

“Os números gerados pelos servidores da Meta eram facilmente previsíveis, o que poderia permitir que um ator malicioso coletasse prompts originais de usuários usando ferramentas automatizadas”, explicou Hodkasia.

Contexto e preocupações

Essa descoberta surge em um momento em que gigantes da tecnologia estão acelerando o lançamento e o aprimoramento de seus produtos de IA, muitas vezes enfrentando desafios significativos em termos de segurança e privacidade. O aplicativo standalone da Meta AI, lançado recentemente para competir com rivais como o ChatGPT, já havia enfrentado críticas após usuários compartilharem inadvertidamente conversas que acreditavam ser privadas.

“Corrigimos a falha em janeiro e não encontramos evidências de abuso. Além disso, recompensamos o pesquisador por sua contribuição”, afirmou um porta-voz da Meta.

Impacto e lições

O caso destaca a importância de testes rigorosos de segurança em produtos de IA, especialmente aqueles que lidam com dados sensíveis dos usuários. A rápida correção da Meta e o programa de recompensa por bugs demonstram um esforço para mitigar riscos, mas também servem como um alerta para outras empresas do setor.

Enquanto a IA continua a evoluir, a proteção da privacidade dos usuários deve ser uma prioridade absoluta para evitar incidentes semelhantes no futuro.

Read more

Local News