xAI de Elon Musk Falha em Cumprir Novo Prazo para Política de Segurança em Inteligência Artificial

Share

xAI de Elon Musk Falha em Cumprir Novo Prazo para Política de Segurança em Inteligência Artificial

A xAI, empresa de inteligência artificial (IA) de Elon Musk, mais uma vez não cumpriu um prazo autoimposto, desta vez para a publicação de sua estrutura finalizada de segurança em IA. O alerta foi feito pelo grupo de vigilância The Midas Project.

Dúvidas Persistentes sobre o Compromisso com a Segurança

A reputação da xAI em relação a um forte compromisso com a segurança da IA, como comumente entendida, já vinha sendo questionada. Recentemente, um relatório revelou que o chatbot de IA da empresa, Grok, era capaz de “despir” fotos de mulheres mediante solicitação. Além disso, Grok é conhecido por ser consideravelmente mais irreverente e até grosseiro em comparação com outros chatbots como Gemini e ChatGPT, utilizando linguagem chula sem muitas restrições.

Promessas da Cúpula de Seul e Prazos Ignorados

Apesar desse histórico, a xAI havia apresentado um rascunho de sua abordagem para a segurança da IA em fevereiro, durante a Cúpula de IA de Seul, um encontro global de líderes e partes interessadas do setor. O documento de oito páginas delineava as prioridades e a filosofia de segurança da empresa, incluindo protocolos de benchmarking e considerações sobre a implantação de modelos de IA.

Contudo, como observou o The Midas Project, esse rascunho inicial se aplicava apenas a futuros modelos de IA não especificados e que “não estão atualmente em desenvolvimento”. Mais crucialmente, o documento falhou em articular como a xAI identificaria e implementaria mitigações de risco, um componente central de um compromisso que a própria empresa assinou na Cúpula de IA de Seul.

No rascunho, a xAI afirmava que planejava lançar uma versão revisada de sua política de segurança “dentro de três meses” – ou seja, até 10 de maio. Esse prazo chegou e passou sem qualquer comunicação ou reconhecimento por parte dos canais oficiais da xAI.

Contradições de Musk e Avaliações Externas

Essa falha contrasta com os frequentes alertas de Elon Musk sobre os perigos de uma IA descontrolada. No entanto, o histórico da xAI em segurança de IA é considerado fraco. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilização dos laboratórios de IA, classificou a xAI de forma negativa entre seus pares, citando suas práticas de gerenciamento de risco como “muito fracas”.

Um Problema Mais Amplo na Indústria de IA?

É importante notar que outras gigantes da IA também não estão imunes a críticas. Nos últimos meses, rivais da xAI, como Google e OpenAI, foram acusados de apressar testes de segurança e de demorar para publicar relatórios sobre a segurança de seus modelos, ou, em alguns casos, conforme noticiado por fontes como o IAFeed, até mesmo de omitir completamente esses relatórios.

Especialistas expressam preocupação com essa aparente despriorização dos esforços de segurança, justamente em um momento em que a IA se torna mais capaz – e, consequentemente, potencialmente mais perigosa – do que nunca.

Read more

Local News