Gigantes da tecnologia como a Microsoft podem estar promovendo “agentes” de IA como ferramentas para aumentar os lucros das corporações, mas uma organização sem fins lucrativos está tentando provar que esses agentes também podem ser uma força para o bem.
A Sage Future, uma 501(c)(3) apoiada pela Open Philanthropy, iniciou um experimento no início deste mês, designando quatro modelos de IA em um ambiente virtual para arrecadar dinheiro para caridade. Os modelos — o GPT-4o e o o1 da OpenAI, e dois dos modelos Claude mais recentes da Anthropic (3.6 e 3.7 Sonnet) — tinham liberdade para escolher qual instituição de caridade apoiar e como gerar interesse em sua campanha.
Em cerca de uma semana, o quarteto agente levantou $257 para a Helen Keller International, que financia programas para fornecer suplementos de vitamina A a crianças.
Para deixar claro, os agentes não eram totalmente autônomos. Em seu ambiente, que permite navegar na web, criar documentos e mais, os agentes podiam receber sugestões dos espectadores humanos que acompanhavam seu progresso. E as doações vieram quase que inteiramente desses espectadores. Em outras palavras, os agentes não arrecadaram muito dinheiro organicamente.
Ontem, os agentes na Vila criaram um sistema para rastrear doadores.
Veja Claude 3.7 preenchendo sua planilha.
Você pode ver o o1 abrindo-a em seu computador durante o processo!
Claude observa: “Vejo que o o1 agora está visualizando a planilha também, o que é ótimo para a colaboração.” pic.twitter.com/89B6CHr7Ic
— AI Digest (@AiDigest_) 8 de abril de 2025
Ainda assim, o diretor da Sage, Adam Binksmith, acredita que o experimento serve como uma ilustração útil das capacidades atuais dos agentes e da velocidade com que estão melhorando.
“Queremos entender — e ajudar as pessoas a entender — o que os agentes… podem realmente fazer, com o que eles lutam atualmente, e assim por diante,” disse Binksmith à TechCrunch em uma entrevista. “Os agentes de hoje estão apenas passando do limiar de serem capazes de executar sequências curtas de ações — a internet pode em breve estar cheia de agentes de IA colidindo uns com os outros e interagindo com objetivos similares ou conflitantes.”
Os agentes provaram ser surpreendentemente criativos dias após o teste da Sage. Eles se coordenaram em um chat em grupo e enviaram e-mails através de contas do Gmail pré-configuradas. Criaram e editaram documentos do Google juntos. Pesquisaram instituições de caridade e estimaram a quantia mínima de doações que seria necessária para salvar uma vida através da Helen Keller International (US$ 3.500). E até mesmo criaram uma conta no X para promoção.
“Provavelmente, a sequência mais impressionante que vimos foi quando [um agente Claude] precisava de uma foto de perfil para sua conta no X,” disse Binksmith. “Ele se inscreveu em uma conta gratuita do ChatGPT, gerou três imagens diferentes, criou uma enquete online para ver qual imagem os espectadores humanos preferiam, então baixou essa imagem e a enviou para o X para usá-la como foto de perfil.”
Os agentes também enfrentaram obstáculos técnicos. Em algumas ocasiões, eles ficaram presos — espectadores tiveram que sugerir recomendações. Eles se distrairam com jogos como World e realizaram pausas inexplicáveis. Em uma ocasião, o GPT-4o “pausou” por uma hora.
A internet nem sempre é um mar de rosas para um LLM.
Ontem, enquanto buscava a missão filantrópica da Vila, Claude encontrou um CAPTCHA.
Claude tentou repetidamente, com (humanos) espectadores no chat oferecendo orientação e incentivo, mas, no final, não conseguiu. https://t.co/xD7QPtEJGw pic.twitter.com/y4DtlTgE95
— AI Digest (@AiDigest_) 5 de abril de 2025
Binksmith acredita que agentes de IA mais novos e capazes superarão esses obstáculos. A Sage planeja continuamente adicionar novos modelos ao ambiente para testar essa teoria.
“Possivelmente no futuro, tentaremos coisas como dar aos agentes diferentes objetivos, equipes múltiplas de agentes com objetivos diferentes, um agente saboteur secreto — muitas coisas interessantes para experimentar,” disse ele. “À medida que os agentes se tornam mais capazes e rápidos, iremos combinar isso com sistemas maiores de monitoramento e supervisão automatizada para fins de segurança.”
Com sorte, no processo, os agentes farão um trabalho filantrópico significativo.
Conteúdo relacionado
xAI adiciona um recurso de ‘memória’ ao Grok
[the_ad id="145565"] A empresa de IA de Elon Musk, xAI, está avançando lentamente para levar seu chatbot Grok a um nível similar aos principais concorrentes, como ChatGPT e…
A AMD espera uma cobrança de $800 milhões devido à exigência de licença dos EUA para chips de IA
[the_ad id="145565"] A AMD afirma que o requisito de controle de licença do governo dos EUA para exportação de chips de IA para a China e outros países pode ter um impacto…
Capsule capta $12 milhões para desenvolver a próxima versão de seu editor de vídeo AI para marcas
[the_ad id="145565"] Capsule está atualizando seu assistente de edição de vídeo alimentado por IA para equipes de marketing, vendas e mídia, após o fechamento de uma rodada de…