DeepMind Publica Estudo Abrangente Sobre Segurança em IA de Nível Humano
Na quarta-feira, a DeepMind, uma das principais empresas de pesquisa em inteligência artificial (IA), lançou um documento de 145 páginas sobre sua abordagem à segurança de IA de nível humano (AGI). O estudo, co-autorado pelo co-fundador da DeepMind, Shane Legg, aborda os riscos potenciais associados ao desenvolvimento de uma IA que pode realizar qualquer tarefa que um humano possa realizar.
AGI: Uma Visão Controversa
A AGI é um tópico controverso no campo da IA. Enquanto alguns céticos acreditam que ela é apenas um sonho distante, outros, incluindo laboratórios de IA como a Anthropic, alertam que ela está próxima e poderia resultar em danos catastróficos se não forem implementadas salvaguardas adequadas.
Previsões e Riscos
O documento da DeepMind prevê que a AGI poderia chegar até 2030 e poderia resultar em "danos severos". Embora não defina concretamente o que isso significa, os autores dão o exemplo alarmista de "riscos existenciais" que podem "destruir permanentemente a humanidade".
Abordagens e Dúvidas
O estudo contrasta a abordagem da DeepMind com a da Anthropic e da OpenAI. A Anthropic, segundo o relatório, enfatiza menos o treinamento robusto, monitoramento e segurança, enquanto a OpenAI é excessivamente otimista sobre a automação da pesquisa de alinhamento de IA. Além disso, o documento questiona a viabilidade de uma IA superinteligente, embora acredite que os paradigmas atuais possam permitir a "melhora recursiva de IA", um ciclo de feedback positivo onde a IA conduz sua própria pesquisa para criar sistemas de IA mais sofisticados.
Técnicas de Mitigação
A nível mais alto, o documento propõe e defende o desenvolvimento de técnicas para bloquear o acesso de atores mal-intencionados à AGI hipotética, melhorar a compreensão das ações dos sistemas de IA e "endurecer" os ambientes nos quais a IA pode atuar. Embora muitas das técnicas estejam em estágios iniciais e apresentem "problemas de pesquisa abertos", o estudo alerta contra ignorar os desafios de segurança que podem estar no horizonte.
Debates e Críticas
Especialistas como Heidy Khlaaf, da AI Now Institute, e Matthew Guzdial, da Universidade de Alberta, expressaram ceticismo sobre as premissas do documento. Khlaaf acredita que o conceito de AGI é muito mal definido para ser avaliado cientificamente de forma rigorosa, enquanto Guzdial duvida da viabilidade da melhoria recursiva de IA no presente. Sandra Wachter, da Universidade de Oxford, destaca a preocupação com a IA reforçando-se com saídas imprecisas.
Embora abrangente, o documento da DeepMind parece improvável de resolver os debates sobre a realidade da AGI e as áreas de segurança da IA que mais necessitam de atenção.