Bolt42

O Vale do Silício está otimista em relação aos agentes de IA. O CEO da OpenAI, Sam Altman, afirmou que os agentes “farão parte da força de trabalho” neste ano. O CEO da Microsoft, Satya Nadella, previu que os agentes substituirão certos trabalhos baseados em conhecimento. O CEO da Salesforce, Marc Benioff, disse que o objetivo da Salesforce é ser “o principal fornecedor de trabalho digital no mundo” por meio dos diversos serviços “agentes” da empresa.

No entanto, ninguém parece concordar exatamente com o que é um agente de IA de fato.

Nos últimos anos, a indústria de tecnologia tem proclamado audaciosamente que os “agentes” de IA — a mais recente palavra da moda — vão mudar tudo. De maneira semelhante a como os chatbots de IA, como o ChatGPT da OpenAI, nos proporcionaram novas maneiras de acessar informações, os agentes mudarão fundamentalmente nossa abordagem ao trabalho, afirmam CEOs como Altman e Nadella.

Isso pode ser verdade. Porém, também depende de como se define “agentes”, o que não é uma tarefa fácil. Muito semelhante a outro jargão relacionado à IA (por exemplo, “multimodal”, “AGI” e “IA” em si), os termos “agente” e “agêntico” estão se tornando diluídos ao ponto de perderem o sentido.

Isso ameaça deixar a OpenAI, Microsoft, Salesforce, Amazon, Google e inúmeras outras empresas que estão construindo linhas inteiras de produtos em torno dos agentes em uma situação desconfortável. Um agente da Amazon não é o mesmo que um agente do Google ou de qualquer outro fornecedor, e isso está levando à confusão — e à frustração dos clientes.

Ryan Salva, diretor sênior de produtos do Google e ex-líder do GitHub Copilot, disse que veio a “odiar” a palavra “agentes”.

“Acho que a nossa indústria usa tanto o termo ‘agente’ que ele se tornou quase sem sentido,” Salva disse ao TechCrunch em uma entrevista. “[É] uma das minhas irritações.”

O dilema da definição de agente não é novo. Em um artigo do ano passado, o ex-repórter do TechCrunch, Ron Miller, perguntou: O que é um agente de IA? O Problema que ele identificou é que quase todas as empresas que constroem agentes abordam a tecnologia de maneira diferente.

Essa é uma questão que piorou recentemente.

Nesta semana, a OpenAI publicou um post no blog que define agentes como “sistemas automatizados que podem realizar tarefas de forma independente em nome dos usuários.” No entanto, na mesma semana, a empresa lançou documentação para desenvolvedores que definiu agentes como “LLMs equipados com instruções e ferramentas.”

Leher Pathak, líder de marketing de produtos de API da OpenAI, disse posteriormente em uma publicação no X que entendeu os termos “assistentes” e “agentes” como intercambiáveis — o que nebulizou ainda mais as águas.

Enquanto isso, os blogs da Microsoft tentam distinguir entre agentes e assistentes de IA. O primeiro, que a Microsoft chama de “novos aplicativos” para um “mundo impulsionado por IA”, pode ser adaptado para ter uma especialização particular, enquanto assistentes apenas ajudam com tarefas gerais, como redigir e-mails.

O laboratório de IA Anthropic aborda a confusão das definições de agente de forma um pouco mais direta. Em um post no blog, a Anthropic afirma que os agentes “podem ser definidos de várias maneiras”, incluindo sistemas “totalmente autônomos que operam independentemente por longos períodos” e “implementações prescritivas que seguem fluxos de trabalho predefinidos.”

A Salesforce talvez tenha a definição mais abrangente de “agente” de IA. Segundo a gigante do software, os agentes são “um tipo de […] sistema que pode entender e responder a perguntas de clientes sem intervenção humana.” O site da empresa lista seis categorias diferentes, variando de “agentes reflexivos simples” a “agentes baseados em utilidade.”

Então, por que a confusão?

Bem, os agentes — assim como a IA — são uma coisa nebulosa e estão em constante evolução. A OpenAI, Google e Perplexity acabaram de começar a lançar o que consideram ser seus primeiros agentes — o Operador da OpenAI, o Projeto Mariner do Google e o agente de compras da Perplexity — e suas capacidades estão variando bastante.

Rich Villars, VP de pesquisa global da IDC, observou que as empresas de tecnologia “têm um longo histórico” de não aderir rigidamente às definições técnicas.

“Elas se importam mais com o que estão tentando alcançar” em um nível técnico, disse Villars ao TechCrunch, “especialmente em mercados em rápida evolução.”

Mas o marketing também é culpado, em grande parte, segundo Andrew Ng, fundador da plataforma de aprendizado em IA DeepLearning.ai.

“Os conceitos de ‘agentes’ de IA e fluxos de trabalho ‘agênticos’ costumavam ter um significado técnico,” Ng disse em uma recente entrevista, “mas há cerca de um ano, os profissionais de marketing e algumas grandes empresas se apropriaram deles.”

A falta de uma definição unificada para agentes é tanto uma oportunidade quanto um desafio, diz Jim Rowan, chefe de IA da Deloitte. Por um lado, a ambiguidade permite flexibilidade, permitindo que as empresas personalizem os agentes de acordo com suas necessidades. Por outro lado, isso pode — e, segundo alguns, já levou — a “expectativas desalinhadas” e dificuldades em medir o valor e o ROI de projetos agênticos.

“Sem uma definição padronizada, pelo menos dentro de uma organização, torna-se desafiador avaliar o desempenho e garantir resultados consistentes,” disse Rowan. “Isso pode resultar em interpretações variadas do que os agentes de IA devem entregar, complicando potencialmente os objetivos e resultados do projeto. No final, embora a flexibilidade possa impulsionar soluções criativas, uma compreensão mais padronizada ajudaria as empresas a navegar melhor no cenário de agentes de IA e maximizar seus investimentos.”

Infelizmente, se o desmantelamento do termo “IA” é uma indicação, parece improvável que a indústria se una em torno de uma única definição de “agente” tão cedo — se é que isso vai acontecer.


    4 × 3 =

    Bolt42