DeepMind Publica Estudo Abrangente Sobre Segurança em IA de Nível Humano

DeepMind Publica Estudo Abrangente Sobre Segurança em IA de Nível Humano

DeepMind Publica Estudo Abrangente Sobre Segurança em IA de Nível Humano

Na quarta-feira, a DeepMind, uma das principais empresas de pesquisa em inteligência artificial (IA), lançou um documento de 145 páginas sobre sua abordagem à segurança de IA de nível humano (AGI). O estudo, co-autorado pelo co-fundador da DeepMind, Shane Legg, aborda os riscos potenciais associados ao desenvolvimento de uma IA que pode realizar qualquer tarefa que um humano possa realizar.

AGI: Uma Visão Controversa

A AGI é um tópico controverso no campo da IA. Enquanto alguns céticos acreditam que ela é apenas um sonho distante, outros, incluindo laboratórios de IA como a Anthropic, alertam que ela está próxima e poderia resultar em danos catastróficos se não forem implementadas salvaguardas adequadas.

Previsões e Riscos

O documento da DeepMind prevê que a AGI poderia chegar até 2030 e poderia resultar em "danos severos". Embora não defina concretamente o que isso significa, os autores dão o exemplo alarmista de "riscos existenciais" que podem "destruir permanentemente a humanidade".

Abordagens e Dúvidas

O estudo contrasta a abordagem da DeepMind com a da Anthropic e da OpenAI. A Anthropic, segundo o relatório, enfatiza menos o treinamento robusto, monitoramento e segurança, enquanto a OpenAI é excessivamente otimista sobre a automação da pesquisa de alinhamento de IA. Além disso, o documento questiona a viabilidade de uma IA superinteligente, embora acredite que os paradigmas atuais possam permitir a "melhora recursiva de IA", um ciclo de feedback positivo onde a IA conduz sua própria pesquisa para criar sistemas de IA mais sofisticados.

Técnicas de Mitigação

A nível mais alto, o documento propõe e defende o desenvolvimento de técnicas para bloquear o acesso de atores mal-intencionados à AGI hipotética, melhorar a compreensão das ações dos sistemas de IA e "endurecer" os ambientes nos quais a IA pode atuar. Embora muitas das técnicas estejam em estágios iniciais e apresentem "problemas de pesquisa abertos", o estudo alerta contra ignorar os desafios de segurança que podem estar no horizonte.

Debates e Críticas

Especialistas como Heidy Khlaaf, da AI Now Institute, e Matthew Guzdial, da Universidade de Alberta, expressaram ceticismo sobre as premissas do documento. Khlaaf acredita que o conceito de AGI é muito mal definido para ser avaliado cientificamente de forma rigorosa, enquanto Guzdial duvida da viabilidade da melhoria recursiva de IA no presente. Sandra Wachter, da Universidade de Oxford, destaca a preocupação com a IA reforçando-se com saídas imprecisas.

Embora abrangente, o documento da DeepMind parece improvável de resolver os debates sobre a realidade da AGI e as áreas de segurança da IA que mais necessitam de atenção.

Compartilhe este artigo