Bolt42

Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre coberturas de IA líderes na indústria. Saiba Mais


Modelos maiores não estão impulsionando a próxima onda de inovação em IA. A verdadeira disrupção é mais silenciosa: a padronização.

Lançado pela Anthropic em novembro de 2024, o Protocolo de Contexto de Modelo (MCP) padroniza como as aplicações de IA interagem com o mundo além de seus dados de treinamento. Assim como o HTTP e o REST padronizaram como as aplicações web se conectam a serviços, o MCP padroniza como os modelos de IA se conectam a ferramentas.

Você provavelmente leu uma dúzia de artigos explicando o que é o MCP. Mas o que muitos não percebem é a parte monótona — e poderosa —: o MCP é um padrão. Os padrões não apenas organizam a tecnologia; eles criam rodas de crescimento. Adote-os cedo e você surfa na onda. Ignore-os, e você fica para trás. Este artigo explica por que o MCP é importante agora, quais desafios ele introduz e como já está remodelando o ecossistema.

Como o MCP nos move do caos ao contexto

Conheça Lily, uma gerente de produto em uma empresa de infraestrutura em nuvem. Ela gerencia projetos em várias ferramentas, como Jira, Figma, GitHub, Slack, Gmail e Confluence. Como muitos, ela está afogada em atualizações.

Em 2024, Lily percebeu como os grandes modelos de linguagem (LLMs) haviam se tornado bons em sintetizar informações. Ela viu uma oportunidade: se pudesse alimentar todas as ferramentas de sua equipe em um modelo, poderia automatizar atualizações, redigir comunicações e responder perguntas sob demanda. Mas cada modelo tinha sua maneira customizada de se conectar a serviços. Cada integração a puxava mais para dentro da plataforma de um único fornecedor. Quando ela precisava puxar transcrições do Gong, isso significava construir mais uma conexão sob medida, dificultando ainda mais a troca por um LLM melhor depois.

Então a Anthropic lançou o MCP: um protocolo aberto para padronizar como o contexto flui para LLMs. O MCP rapidamente recebeu apoio da OpenAI, AWS, Azure, Microsoft Copilot Studio e, em breve, Google. SDKs oficiais estão disponíveis para Python, TypeScript, Java, C#, Rust, Kotlin e Swift. SDKs comunitários para Go e outros seguiram. A adoção foi rápida.

Hoje, Lily roda tudo através do Claude, conectado aos seus aplicativos de trabalho via um servidor MCP local. Relatórios de status se redigem sozinhos. Atualizações de liderança estão a um prompt de distância. À medida que novos modelos surgem, ela pode trocá-los sem perder nenhuma de suas integrações. Quando ela escreve código por conta própria, usa o Cursor com um modelo da OpenAI e o mesmo servidor MCP que usa no Claude. Seu IDE já entende o produto que ela está construindo. O MCP facilitou isso.

O poder e as implicações de um padrão

A história de Lily mostra uma verdade simples: ninguém gosta de usar ferramentas fragmentadas. Nenhum usuário gosta de estar preso a fornecedores. E nenhuma empresa quer reescrever integrações toda vez que mudam de modelo. Você quer liberdade para usar as melhores ferramentas. O MCP entrega isso.

Agora, com padrões vêm implicações.

Primeiro, provedores de SaaS sem APIs públicas fortes são vulneráveis à obsolescência. As ferramentas MCP dependem dessas APIs, e os clientes exigirã suportes para suas aplicações de IA. Com um padrão de fato emergindo, não há desculpas.

Segundo, os ciclos de desenvolvimento de aplicações de IA estão prestes a acelerar dramaticamente. Os desenvolvedores não precisam mais escrever código customizado para testar aplicações simples de IA. Em vez disso, podem integrar servidores MCP com clientes MCP disponíveis, como Claude Desktop, Cursor e Windsurf.

Terceiro, os custos de troca estão diminuindo. Uma vez que as integrações estão desacopladas de modelos específicos, as organizações podem migrar de Claude para OpenAI para Gemini — ou misturar modelos — sem reconstruir a infraestrutura. Futuros provedores de LLM se beneficiarão de um ecossistema já existente em torno do MCP, permitindo que se concentrem em melhor desempenho de preço.

Navegando pelos desafios do MCP

Cada padrão introduz novos pontos de fricção ou deixa pontos de fricção existentes não resolvidos. O MCP não é exceção.

A confiança é crítica: Dezenas de registros MCP apareceram, oferecendo milhares de servidores mantidos pela comunidade. Mas se você não controla o servidor — ou confia na parte que o faz — corre o risco de vazar segredos para um terceiro desconhecido. Se você é uma empresa de SaaS, forneça servidores oficiais. Se você é um desenvolvedor, procure servidores oficiais.

A qualidade é variável: APIs evoluem, e servidores MCP mal mantidos podem facilmente ficar fora de sincronia. LLMs dependem de metadados de alta qualidade para determinar quais ferramentas usar. Nenhum registro MCP autoritário existe ainda, reforçando a necessidade de servidores oficiais de partes confiáveis. Se você é uma empresa de SaaS, mantenha seus servidores à medida que suas APIs evoluem. Se você é um desenvolvedor, procure servidores oficiais.

Grandes servidores MCP aumentam custos e diminuem utilidade: Agrupar muitas ferramentas em um único servidor aumenta os custos através do consumo de tokens e sobrecarrega os modelos com muitas escolhas. LLMs ficam facilmente confusos se tiverem acesso a muitas ferramentas. É o pior dos dois mundos. Servidores menores e focados em tarefas serão importantes. Tenha isso em mente ao construir e distribuir servidores.

Desafios de autorização e identidade persistem: Esses problemas existiam antes do MCP e ainda existem com o MCP. Imagine que Lily deu a Claude a capacidade de enviar e-mails e deu instruções bem-intencionadas, como: “Envie rapidamente uma atualização de status para Chris.” Em vez de enviar um email para seu chefe, Chris, o LLM envia um email para todos os contatos chamados Chris em sua lista, para garantir que Chris receba a mensagem. Os humanos precisarão permanecer envolvidos para ações que exigem julgamento elevado.

Olhando para frente

O MCP não é modismo — é uma mudança fundamental na infraestrutura para aplicações de IA.

E, assim como cada padrão bem adotado antes dele, o MCP está criando uma roda de crescimento auto-reforçada: Cada novo servidor, cada nova integração, cada nova aplicação compõe o impulso.

Novas ferramentas, plataformas e registros já estão emergindo para simplificar a construção, teste, implantação e descoberta de servidores MCP. À medida que o ecossistema evolui, as aplicações de IA oferecerão interfaces simples para se conectar a novas capacidades. Equipes que abraçam o protocolo irão lançar produtos mais rapidamente com histórias de integração melhores. Empresas que oferecem APIs públicas e servidores MCP oficiais podem fazer parte da história de integração. Adores tardios terão que lutar por relevância.

Noah Schwartz é chefe de produto da Postman.





    dois × 1 =




    Bolt42