Bolt42

Inscreva-se em nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de AI líder no setor. Saiba mais


A interoperabilidade agente está ganhando força, mas as organizações continuam a propor novos protocolos de interoperabilidade enquanto a indústria busca decidir quais padrões adotar.

Um grupo de pesquisadores da Universidade Carnegie Mellon propôs um novo protocolo de interoperabilidade que rege a identidade, responsabilidade e ética dos agentes de IA autônomos. A Orquestração em Camadas para Agentes Conhecedores, ou LOKA, pode se juntar a outros padrões propostos, como o Agent2Agent (A2A) do Google e o Model Context Protocol (MCP) da Anthropic.

Em um artigo, os pesquisadores destacaram que o surgimento de agentes de IA sublinha a importância de governá-los.

“À medida que sua presença se expande, a necessidade de um quadro padronizado para governar suas interações se torna primordial,” escreveram os pesquisadores. “Apesar de sua crescente ubiquidade, os agentes de IA frequentemente operam dentro de sistemas isolados, carecendo de um protocolo comum para comunicação, raciocínio ético e conformidade com regulamentos jurisdicionais. Essa fragmentação representa riscos significativos, como problemas de interoperabilidade, desalinhamento ético e lacunas de responsabilidade.”

Para abordar isso, eles propõem a LOKA, de código aberto, que permitiria aos agentes provar sua identidade, “trocar mensagens semanticamente ricas e eticamente anotadas”, adicionar responsabilidade e estabelecer governança ética ao longo do processo decisório do agente.

A LOKA se baseia no que os pesquisadores chamam de uma Camada de Identidade Universal do Agente, uma estrutura que atribui aos agentes uma identidade única e verificável.

“Nós imaginamos a LOKA como uma arquitetura fundamental e um chamado para reexaminar os elementos centrais—identidade, intenção, confiança e consenso ético—que devem fundamentar as interações dos agentes. À medida que a abrangência dos agentes de IA se expande, é crucial avaliar se nossa infraestrutura existente pode facilitar essa transição de forma responsável,” disse Rajesh Ranjan, um dos pesquisadores, ao VentureBeat.

Camadas da LOKA

A LOKA funciona como uma pilha em camadas. A primeira camada gira em torno da identidade, que delineia o que é o agente. Isso inclui um identificador descentralizado, ou um “ID único e criptograficamente verificável.” Isso permitiria que usuários e outros agentes verificassem a identidade do agente.

A próxima camada é a camada de comunicação, onde o agente informa outro agente de sua intenção e da tarefa que precisa realizar. Isto é seguido pela camada ético e pela camada de segurança.

A camada ética da LOKA descreve como o agente se comporta. Incorpora “um quadro de tomada de decisão ética flexível, porém robusto, que permite que os agentes se adaptem a diferentes padrões éticos dependendo do contexto em que operam.” O protocolo LOKA emprega modelos de tomada de decisão coletiva, permitindo que os agentes dentro da estrutura determinem seus próximos passos e avaliem se esses passos estão alinhados com os padrões éticos e de IA responsável.

Enquanto isso, a camada de segurança utiliza o que os pesquisadores descrevem como “criptografia resistente a quânticos.”

O que diferencia a LOKA

Os pesquisadores afirmaram que a LOKA se destaca porque estabelece informações cruciais para que os agentes se comuniquem com outros agentes e operem de forma autônoma em diferentes sistemas.

A LOKA pode ser útil para empresas garantirem a segurança dos agentes que implementam no mundo e fornecer uma maneira rastreável de entender como o agente tomou decisões. Um receio que muitas empresas têm é que um agente acesse outro sistema ou dados privados e cometa um erro.

Ranjan disse que o sistema “destaca a necessidade de definir quem são os agentes, como eles tomam decisões e como são responsabilizados.”

“Nossa visão é iluminar as questões críticas que muitas vezes são ofuscadas na pressa de escalar os agentes de IA: Como criamos ecossistemas onde esses agentes possam ser confiáveis, responsabilizados e interoperáveis eticamente entre sistemas diversos?” disse Ranjan.

A LOKA terá que competir com outros protocolos e padrões que estão surgindo. Protocolos como MCP e A2A conquistaram um público considerável, não apenas por causa das soluções técnicas que oferecem, mas porque esses projetos são apoiados por organizações conhecidas. A Anthropic iniciou o MCP, enquanto o Google apoia o A2A, e ambos os protocolos reuniram muitas empresas dispostas a usar—e aprimorar—esses padrões.

A LOKA opera de forma independente, mas Ranjan disse que receberam “um feedback muito encorajador e animador” de outros pesquisadores e instituições para expandir o projeto de pesquisa da LOKA.





    20 − catorze =




    Bolt42