xAI de Elon Musk Falha em Cumprir Novo Prazo para Política de Segurança em Inteligência Artificial
A xAI, empresa de inteligência artificial (IA) de Elon Musk, mais uma vez não cumpriu um prazo autoimposto, desta vez para a publicação de sua estrutura finalizada de segurança em IA. O alerta foi feito pelo grupo de vigilância The Midas Project.
Dúvidas Persistentes sobre o Compromisso com a Segurança
A reputação da xAI em relação a um forte compromisso com a segurança da IA, como comumente entendida, já vinha sendo questionada. Recentemente, um relatório revelou que o chatbot de IA da empresa, Grok, era capaz de “despir” fotos de mulheres mediante solicitação. Além disso, Grok é conhecido por ser consideravelmente mais irreverente e até grosseiro em comparação com outros chatbots como Gemini e ChatGPT, utilizando linguagem chula sem muitas restrições.
Promessas da Cúpula de Seul e Prazos Ignorados
Apesar desse histórico, a xAI havia apresentado um rascunho de sua abordagem para a segurança da IA em fevereiro, durante a Cúpula de IA de Seul, um encontro global de líderes e partes interessadas do setor. O documento de oito páginas delineava as prioridades e a filosofia de segurança da empresa, incluindo protocolos de benchmarking e considerações sobre a implantação de modelos de IA.
Contudo, como observou o The Midas Project, esse rascunho inicial se aplicava apenas a futuros modelos de IA não especificados e que “não estão atualmente em desenvolvimento”. Mais crucialmente, o documento falhou em articular como a xAI identificaria e implementaria mitigações de risco, um componente central de um compromisso que a própria empresa assinou na Cúpula de IA de Seul.
No rascunho, a xAI afirmava que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – ou seja, até 10 de maio. Esse prazo chegou e passou sem qualquer comunicação ou reconhecimento por parte dos canais oficiais da xAI.
Contradições de Musk e Avaliações Externas
Essa falha contrasta com os frequentes alertas de Elon Musk sobre os perigos de uma IA descontrolada. No entanto, o histórico da xAI em segurança de IA é considerado fraco. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilização dos laboratórios de IA, classificou a xAI de forma negativa entre seus pares, citando suas práticas de gerenciamento de risco como “muito fracas”.
Um Problema Mais Amplo na Indústria de IA?
É importante notar que outras gigantes da IA também não estão imunes a críticas. Nos últimos meses, rivais da xAI, como Google e OpenAI, foram acusados de apressar testes de segurança e de demorar para publicar relatórios sobre a segurança de seus modelos, ou, em alguns casos, conforme noticiado por fontes como o IAFeed, até mesmo de omitir completamente esses relatórios.
Especialistas expressam preocupação com essa aparente despriorização dos esforços de segurança, justamente em um momento em que a IA se torna mais capaz – e, consequentemente, potencialmente mais perigosa – do que nunca.
