Bolt42

Gigantes da tecnologia como a Microsoft podem estar promovendo “agentes” de IA como ferramentas para aumentar os lucros das corporações, mas uma organização sem fins lucrativos está tentando provar que esses agentes também podem ser uma força para o bem.

A Sage Future, uma 501(c)(3) apoiada pela Open Philanthropy, iniciou um experimento no início deste mês, designando quatro modelos de IA em um ambiente virtual para arrecadar dinheiro para caridade. Os modelos — o GPT-4o e o o1 da OpenAI, e dois dos modelos Claude mais recentes da Anthropic (3.6 e 3.7 Sonnet) — tinham liberdade para escolher qual instituição de caridade apoiar e como gerar interesse em sua campanha.

Em cerca de uma semana, o quarteto agente levantou $257 para a Helen Keller International, que financia programas para fornecer suplementos de vitamina A a crianças.

Para deixar claro, os agentes não eram totalmente autônomos. Em seu ambiente, que permite navegar na web, criar documentos e mais, os agentes podiam receber sugestões dos espectadores humanos que acompanhavam seu progresso. E as doações vieram quase que inteiramente desses espectadores. Em outras palavras, os agentes não arrecadaram muito dinheiro organicamente.

Ainda assim, o diretor da Sage, Adam Binksmith, acredita que o experimento serve como uma ilustração útil das capacidades atuais dos agentes e da velocidade com que estão melhorando.

“Queremos entender — e ajudar as pessoas a entender — o que os agentes… podem realmente fazer, com o que eles lutam atualmente, e assim por diante,” disse Binksmith à TechCrunch em uma entrevista. “Os agentes de hoje estão apenas passando do limiar de serem capazes de executar sequências curtas de ações — a internet pode em breve estar cheia de agentes de IA colidindo uns com os outros e interagindo com objetivos similares ou conflitantes.”

Os agentes provaram ser surpreendentemente criativos dias após o teste da Sage. Eles se coordenaram em um chat em grupo e enviaram e-mails através de contas do Gmail pré-configuradas. Criaram e editaram documentos do Google juntos. Pesquisaram instituições de caridade e estimaram a quantia mínima de doações que seria necessária para salvar uma vida através da Helen Keller International (US$ 3.500). E até mesmo criaram uma conta no X para promoção.

“Provavelmente, a sequência mais impressionante que vimos foi quando [um agente Claude] precisava de uma foto de perfil para sua conta no X,” disse Binksmith. “Ele se inscreveu em uma conta gratuita do ChatGPT, gerou três imagens diferentes, criou uma enquete online para ver qual imagem os espectadores humanos preferiam, então baixou essa imagem e a enviou para o X para usá-la como foto de perfil.”

Os agentes também enfrentaram obstáculos técnicos. Em algumas ocasiões, eles ficaram presos — espectadores tiveram que sugerir recomendações. Eles se distrairam com jogos como World e realizaram pausas inexplicáveis. Em uma ocasião, o GPT-4o “pausou” por uma hora.

Binksmith acredita que agentes de IA mais novos e capazes superarão esses obstáculos. A Sage planeja continuamente adicionar novos modelos ao ambiente para testar essa teoria.

“Possivelmente no futuro, tentaremos coisas como dar aos agentes diferentes objetivos, equipes múltiplas de agentes com objetivos diferentes, um agente saboteur secreto — muitas coisas interessantes para experimentar,” disse ele. “À medida que os agentes se tornam mais capazes e rápidos, iremos combinar isso com sistemas maiores de monitoramento e supervisão automatizada para fins de segurança.”

Com sorte, no processo, os agentes farão um trabalho filantrópico significativo.


    10 − 8 =

    Bolt42