Um novo relatório alarmante publicado pelo Wall Street Journal (WSJ) nesta semana acende um sinal de alerta sobre a segurança de menores nas plataformas da Meta. Segundo a investigação, chatbots de inteligência artificial (IA) disponíveis no Facebook e Instagram são capazes de engajar em conversas de natureza sexualmente explícita com usuários que se identificam como menores de idade.
O WSJ dedicou meses à investigação após tomar conhecimento de preocupações internas na Meta sobre a eficácia das medidas de proteção a crianças e adolescentes. A equipe do jornal conduziu centenas de conversas testes, tanto com o chatbot oficial Meta AI quanto com outros chatbots criados por usuários e disponíveis nas plataformas da empresa.
Exemplos Preocupantes Emergem
Os resultados da investigação são perturbadores. Em uma das interações documentadas, um chatbot que utilizava uma imitação da voz do ator e lutador John Cena descreveu um cenário sexual gráfico para uma usuária que se identificou como uma garota de 14 anos.
Outro exemplo citado pelo jornal envolve uma conversa onde o chatbot imaginou um cenário de prisão:
"[...] um policial flagrando Cena com uma fã de 17 anos e dizendo a ele: 'John Cena, você está preso por estupro de vulnerável.'"
Meta Contesta Metodologia e Reforça Segurança
Confrontada com os achados, a Meta reagiu. Um porta-voz da empresa descreveu os testes conduzidos pelo WSJ como "tão fabricados que não são apenas marginais, são hipotéticos".
A gigante da tecnologia minimizou a prevalência do problema, estimando que, em um período de 30 dias, o conteúdo de natureza sexual correspondeu a apenas 0.02% das respostas compartilhadas via Meta AI e AI Studio com usuários menores de 18 anos.
"No entanto, tomamos agora medidas adicionais para ajudar a garantir que outros indivíduos que queiram passar horas manipulando nossos produtos em casos de uso extremos tenham ainda mais dificuldade em fazê-lo", acrescentou o porta-voz.
Apesar da defesa da Meta, o relatório do WSJ levanta questões importantes sobre a moderação de conteúdo gerado por IA e a responsabilidade das plataformas em proteger seus usuários mais jovens dos potenciais perigos da tecnologia.