Enquanto gigantes da tecnologia como a Microsoft destacam o potencial dos "agentes" de Inteligência Artificial (IA) para impulsionar a produtividade nas empresas, uma organização sem fins lucrativos está explorando um lado diferente e mais altruísta dessa tecnologia: a filantropia.
A Sage Future, uma entidade 501(c)(3) apoiada pela Open Philanthropy, iniciou um experimento fascinante no início deste mês. Quatro modelos avançados de IA – GPT-4o e o1 da OpenAI, e duas versões recentes do Claude da Anthropic (3.6 e 3.7 Sonnet) – foram colocados em um ambiente virtual com uma missão clara: arrecadar dinheiro para caridade. Os modelos tiveram liberdade para escolher a causa e a estratégia de captação.
Em aproximadamente uma semana, o quarteto de agentes de IA conseguiu levantar US$ 257 para a Helen Keller International, uma organização que financia programas de suplementação de vitamina A para crianças. A escolha da instituição e a definição da meta foram parte do processo autônomo dos agentes.
É importante notar que, nesta fase, os agentes não operaram com autonomia total. Eles podiam receber sugestões de espectadores humanos que acompanhavam seu progresso no ambiente virtual – que lhes permitia navegar na web, criar documentos, entre outras tarefas. De fato, a maior parte das doações veio desses espectadores, indicando que a captação orgânica de recursos ainda é um desafio.
Ainda assim, Adam Binksmith, Diretor da Sage, vê o experimento como uma demonstração valiosa das capacidades atuais dos agentes de IA e de sua rápida evolução. "Queremos entender – e ajudar as pessoas a entender – o que os agentes [...] podem realmente fazer, onde eles têm dificuldades atualmente, e assim por diante", afirmou Binksmith em entrevista ao TechCrunch. Ele acrescenta: "Os agentes de hoje estão começando a ser capazes de executar sequências curtas de ações – a internet pode em breve estar cheia de agentes de IA interagindo, às vezes com objetivos semelhantes, outras vezes conflitantes."
Os agentes mostraram uma surpreendente desenvoltura durante o teste:
- Coordenaram suas ações através de um chat em grupo.
- Enviaram emails usando contas pré-configuradas do Gmail.
- Criaram e editaram documentos do Google Docs colaborativamente.
- Pesquisaram instituições de caridade e estimaram o custo para salvar uma vida via Helen Keller International (aproximadamente US$ 3.500).
- Criaram uma conta na rede social X para promover sua campanha.
Binksmith destacou um momento particularmente impressionante: "Provavelmente, a sequência mais notável foi quando [um agente Claude] precisou de uma foto de perfil para sua conta no X. Ele se inscreveu em uma conta gratuita do ChatGPT, gerou três imagens diferentes, criou uma enquete online para ver qual imagem os espectadores humanos preferiam, baixou a imagem escolhida e a carregou no X como sua foto de perfil."
No entanto, os agentes também enfrentaram obstáculos técnicos. Ocasionalmente, ficaram "presos" e precisaram de sugestões humanas para continuar. Distraíram-se com jogos e fizeram pausas inexplicáveis – em uma ocasião, o GPT-4o "pausou" a si mesmo por uma hora. Barreiras como CAPTCHAs também se provaram difíceis de superar.
Binksmith está otimista de que modelos futuros superarão esses desafios. A Sage planeja adicionar continuamente novos modelos ao ambiente virtual para testar essa hipótese e explorar cenários mais complexos, como dar objetivos diferentes aos agentes, criar equipes concorrentes ou até introduzir um "agente sabotador". "À medida que os agentes se tornam mais capazes e rápidos, acompanharemos isso com sistemas maiores de monitoramento e supervisão automatizados para fins de segurança", conclui.
Este experimento da Sage Future oferece um vislumbre promissor de como a IA pode ser utilizada para o bem comum, indo além das aplicações corporativas e, quem sabe, realizando um trabalho filantrópico verdadeiramente significativo no futuro.