Apresentado pelo Google Cloud
Agentes de IA estão se aproximando de um momento de transformação, semelhante ao que as APIs vivenciaram no início da década de 2010. Naquela época, REST e JSON desbloquearam a integração de sistema a sistema em larga escala, simplificando o que era um emaranhado de SOAP, WSDL e serviços web fortemente acoplados. Essa mudança não apenas aumentou a produtividade dos desenvolvedores, mas também possibilitou ecossistemas de negócios inteiros construídos em torno de software modular.
Uma mudança semelhante está em andamento na inteligência artificial. À medida que os agentes se tornam mais capazes e especializados, as empresas estão descobrindo que a coordenação é o próximo grande desafio. Dois protocolos abertos — Agent-to-Agent (A2A) e Model Context Protocol (MCP) — estão surgindo para atender a essa necessidade. Eles simplificam como os agentes compartilham tarefas, trocam informações e acessam o contexto empresarial, mesmo quando foram construídos usando diferentes modelos ou ferramentas.
Esses protocolos são mais do que conveniências técnicas. Eles são fundamentais para escalar software inteligente em fluxos de trabalho do mundo real.
Sistemas de IA estão indo além de copilotos de uso geral. Na prática, a maioria das empresas está projetando agentes para especializar: gerenciar inventário, lidar com devoluções, otimizar rotas ou processar aprovações. O valor vem não apenas da inteligência deles, mas também de como esses agentes trabalham juntos.
A2A fornece o mecanismo para a interação entre agentes em sistemas diferentes. Permite que os agentes anunciem suas capacidades, descubram outros e enviem solicitações estruturadas. Baseado em JSON-RPC e autenticação estilo OpenAPI, o A2A suporta comunicação sem estado entre agentes, tornando mais simples e seguro executar fluxos de trabalho de múltiplos agentes em larga escala.
O MCP é outro protocolo que empodera os agentes de IA com acesso contínuo a ferramentas essenciais, dados abrangentes e contexto relevante. Ele fornece uma estrutura padronizada para conectar diversos sistemas empresariais. Uma vez que um Servidor MCP é estabelecido por um provedor de serviços, sua funcionalidade completa se torna universalmente acessível a todos os agentes, permitindo ações mais inteligentes e coordenadas em todo o ecossistema.
Esses protocolos não exigem que as organizações construam ou conectem sistemas manualmente. Eles tornam possível adotar uma fundação compartilhada para a colaboração de IA que funcione em todo o ecossistema.
Por que está ganhando tração rapidamente
O Google Cloud iniciou o A2A como um padrão aberto e publicou seu rascunho de forma pública, encorajando contribuições de toda a indústria. Mais de 50 parceiros participaram de sua evolução, incluindo Salesforce, Deloitte e UiPath. A Microsoft agora suporta o A2A no Azure AI Foundry e Copilot Studio; a SAP integrou o A2A em seu assistente Joule.
Outros exemplos estão surgindo em todo o ecossistema. O Zoom está usando o A2A para facilitar interações entre agentes em sua plataforma aberta. Box e Auth0 estão demonstrando como a autenticação empresarial pode ser gerida entre agentes usando fluxos de identidade padronizados.
Esse tipo de participação está ajudando o protocolo a amadurecer rapidamente, tanto na especificação quanto nas ferramentas. O SDK Python A2A está estável e pronto para produção. O Google Cloud também lançou o Kit de Desenvolvimento de Agentes em Java para ampliar o suporte às equipes de desenvolvimento empresarial. O Renault Group está entre os primeiros a adotar essas ferramentas.
Fluxos de trabalho de múltiplos agentes desbloqueiam novos casos de uso empresariais
A transição de agentes independentes para sistemas coordenados já está em andamento.
Imagine um cenário onde um agente de serviço ao cliente recebe um pedido. Ele usa o A2A para verificar com um agente de inventário sobre a disponibilidade do produto. Depois, consulta um agente de logística para recomendar um cronograma de envio. Se necessário, ele envolve um agente financeiro para emitir um reembolso. Cada um desses agentes pode ser construído usando modelos, kits de ferramentas ou plataformas diferentes — mas eles podem interagir por meio do A2A e do MCP.
Em configurações mais avançadas, esse padrão viabiliza casos de uso como gestão de operações em tempo real. Por exemplo, um agente de IA monitorando fluxos de vídeo em um parque temático poderia coordenar com agentes de operações para ajustar a alocação de funcionários com base nas condições de multidão em tempo real. Dados de vídeo, sensores e bilhetagem podem ser disponibilizados por meio de ferramentas como o BigLake metastore e acessados por agentes através do MCP. As decisões são tomadas e executadas entre os agentes, com mínima necessidade de orquestração humana.
Arquitetonicamente, isso é uma nova camada de abstração
O MCP e o A2A representam mais do que protocolos de mensagem. Eles fazem parte de uma mudança mais ampla em direção a abstrações limpas e abertas em software empresarial.
Esses protocolos de agente desacoplam inteligência da integração. Com o MCP, os desenvolvedores não precisam codificar manualmente o acesso à API para cada fonte de dados. Com o A2A, eles não precisam manter lógicas frágeis sobre como os agentes interagem.
O resultado é uma abordagem mais mantenível, segura e portátil para construir sistemas de múltiplos agentes inteligentes — uma que se escala através de unidades de negócios e plataformas.
Investimento do Google Cloud em padrões abertos de agentes
As contribuições do Google Cloud para o ecossistema são tanto fundamentais quanto práticas. Estamos colaborando com a Anthropic no MCP e liberamos o A2A como uma especificação aberta e apoiamos com ferramentas de nível de produção. Esses protocolos estão profundamente integrados em nossas plataformas de IA, incluindo o Vertex AI, onde fluxos de trabalho de múltiplos agentes podem ser desenvolvidos e gerenciados diretamente. É ótimo ver outros provedores de nuvem adotando os padrões de MCP e A2A.
Ao liberar o Kit de Desenvolvimento de Agentes para Python e Java, e ao tornar esses componentes modulares e extensíveis, o Google Cloud está agora permitindo que equipes adotem esses padrões sem a necessidade de reinventar a infraestrutura. O Kit de Desenvolvimento de Agentes também apresenta ferramentas integradas para acessar os dados no BigQuery, facilitando a construção de seus próprios agentes respaldados pelos dados da sua empresa.
Estamos comprometidos em permitir que você acesse o BigQuery, AlloyDB e outros serviços de dados do GCP por meio dos protocolos MCP e A2A. Você pode começar usando MCP Toolbox for Databases hoje e abrir suas consultas de banco de dados como ferramentas MCP. Estamos continuamente adicionando mais ferramentas via MCP para permitir que os desenvolvedores construam agentes ainda mais sofisticados usando as capacidades nativas do BigQuery.
Por que isso merece atenção
Para organizações que estão investindo em agentes de IA hoje, a interoperabilidade importará cada vez mais a cada trimestre que passar. Sistemas construídos em torno de agentes isolados terão dificuldade para escalar; sistemas construídos em protocolos compartilhados serão mais ágeis, colaborativos e preparados para o futuro.
Essa transição ecoa a ascensão das APIs na última década. REST e JSON não apenas melhoraram a eficiência, como se tornaram a base das aplicações modernas em nuvem. O MCP e o A2A estão prontos para fazer o mesmo pelos agentes de IA.
A adoção desses protocolos não exige uma reconstrução completa do sistema. O objetivo é criar flexibilidade: permitir que agentes desenvolvidos internamente ou por fornecedores colaborem e operem com contexto, usando padrões que já estão ganhando suporte em toda a indústria.
Para empresas que estão avaliando sua pilha de IA, vale a pena perguntar se seus agentes serão capazes de se comunicar entre si — e o que acontece quando não conseguem.
Tomas Talius é VP de Engenharia no Google BigQuery.
Artigos patrocinados são conteúdos produzidos por uma empresa que está pagando pela postagem ou tem um relacionamento comercial com a VentureBeat, e sempre estão claramente marcados. Para mais informações, entre em contato com sales@venturebeat.com.
Conteúdo relacionado
Google afirma que a prévia do Gemini 2.5 Pro supera o DeepSeek R1 e o Grok 3 Beta em desempenho de programação.
[the_ad id="145565"] Participe do evento confiável por líderes empresariais há quase duas décadas. O VB Transform reúne pessoas que estão construindo uma verdadeira…
AMD contrata os funcionários por trás da Untether AI
[the_ad id="145565"] A AMD continua sua onda de aquisições. A gigante de semicondutores AMD adquiriu a equipe por trás da Untether AI, uma startup que desenvolve chips de…
Chefe de marketing da OpenAI se afasta para tratar câncer de mama.
[the_ad id="145565"] A chefe de marketing da OpenAI, Kate Rouch, anunciou que estará se afastando de sua função por três meses enquanto passa por tratamento para câncer de mama…