Além desse sinalizador, os três recursos do cliente tornam-se disponíveis automaticamente assim que o cliente MCP declara suporte a eles durante o handshake de inicialização.
Aprofundamento nos Novos Recursos do Cliente: Elicitação, Amostragem e Progresso
Com a transição para o modo com estado, o Amazon Bedrock AgentCore Runtime desbloqueia três poderosos recursos de cliente da especificação MCP, cada um projetado para atender a padrões de interação distintos cruciais para agentes de IA avançados. Esses recursos transformam o que antes era uma execução de comando rígida e unidirecional em um diálogo fluido e bidirecional entre um servidor MCP e seus clientes conectados. É importante notar que esses recursos são opcionais, o que significa que os clientes declaram seu suporte durante a inicialização, e os servidores devem utilizar apenas os recursos que o cliente conectado anunciou.
Elicitação: Habilitando Entrada Dinâmica do Usuário em Agentes de IA
A Elicitação se apresenta como um pilar da IA interativa, permitindo que um servidor MCP pause judiciosamente sua execução e solicite entrada específica e estruturada do usuário através do cliente. Essa capacidade empodera a ferramenta a fazer perguntas precisas em momentos oportunos dentro de seu fluxo de trabalho, seja para confirmar uma decisão, coletar uma preferência do usuário ou reunir um valor derivado de operações precedentes. O servidor inicia isso enviando uma requisição JSON-RPC elicitation/create, que inclui uma mensagem legível por humanos e um requestedSchema opcional que delineia a estrutura de resposta esperada.
A especificação MCP fornece dois modos robustos para elicitação:
- Modo de formulário: Este é ideal para coletar dados estruturados diretamente através do cliente MCP, como parâmetros de configuração, preferências do usuário ou confirmações simples onde dados sensíveis não estão envolvidos.
- Modo de URL: Para interações que necessitam de um processo seguro e fora de banda, como fluxos de OAuth, processamento de pagamentos ou a entrada de credenciais sensíveis, o modo de URL direciona o usuário para uma URL externa. Isso garante que informações sensíveis contornem o cliente MCP completamente, aumentando a segurança e a conformidade.
Ao receber uma requisição de elicitação, o cliente renderiza uma interface de entrada apropriada. A ação subsequente do usuário dispara um modelo de resposta de três ações de volta para o servidor: aceitar (o usuário forneceu os dados solicitados), recusar (o usuário rejeitou explicitamente a requisição) ou cancelar (o usuário descartou o prompt sem fazer uma escolha). Servidores inteligentes são projetados para lidar com cada um desses cenários de forma elegante, garantindo uma experiência robusta e amigável ao usuário. Por exemplo, uma ferramenta add_expense_interactive, como demonstrado no material original, pode guiar um usuário através de uma série de perguntas — valor, descrição, categoria e confirmação final — antes de enviar dados para um backend como o Amazon DynamoDB. Cada etapa utiliza modelos Pydantic para definir a entrada esperada, que o FastMCP converte perfeitamente no JSON Schema necessário para a requisição elicitation/create.
Amostragem e Notificações de Progresso: Impulsionando a Interação e Transparência do LLM
Além da interação direta com o usuário, a Amostragem equipa o servidor MCP com a capacidade de solicitar conteúdo gerado por LLM diretamente do cliente via sampling/createMessage. Este é um mecanismo crítico, pois permite que a lógica da ferramenta no servidor aproveite os poderosos recursos de modelos de linguagem sem a necessidade de gerenciar suas próprias credenciais de LLM ou integrações diretas de API. O servidor simplesmente fornece um prompt e preferências de modelo opcionais, e o cliente, atuando como um intermediário, encaminha a requisição para seu LLM conectado e retorna a resposta gerada. Isso abre uma infinidade de aplicações práticas, incluindo a criação de resumos personalizados, a geração de explicações em linguagem natural a partir de dados estruturados ou a produção de recomendações sensíveis ao contexto com base na conversa em andamento.
Para operações que se estendem ao longo do tempo, as Notificações de Progresso tornam-se inestimáveis. Essa capacidade permite que um servidor MCP relate atualizações incrementais durante tarefas de longa duração. Ao utilizar ctx.report_progress(progress, total), o servidor pode emitir atualizações contínuas que os clientes podem traduzir em feedback visual, como uma barra de progresso ou um indicador de status. Seja pesquisando em vastas fontes de dados ou executando tarefas computacionais complexas, as atualizações de progresso transparentes garantem que os usuários permaneçam informados, evitando frustrações e aprimorando a experiência geral do usuário, em vez de deixá-los olhando para uma tela em branco se perguntando se o sistema ainda está ativo.
Preparando o Desenvolvimento de Agentes de IA para o Futuro com o Bedrock AgentCore Runtime
A introdução dos recursos de cliente MCP com estado no Amazon Bedrock AgentCore Runtime representa um salto significativo no desenvolvimento de agentes de IA. Ao transformar interações anteriormente sem estado em conversas dinâmicas e bidirecionais, a AWS capacita os desenvolvedores a construir aplicações de IA mais inteligentes, responsivas e amigáveis ao usuário. Esses recursos – Elicitação para entrada guiada do usuário, Amostragem para geração de LLM sob demanda e Notificações de Progresso para transparência em tempo real – coletivamente abrem uma nova era de fluxos de trabalho de agentes interativos. À medida que a IA continua a evoluir, essas capacidades fundamentais serão cruciais para criar uma IA agêntica operacionalizada sofisticada que pode se integrar perfeitamente em processos de negócios complexos, adaptar-se às necessidades do usuário e entregar valor excepcional.
Perguntas Frequentes
What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
How does the transition from stateless to stateful mode work on AgentCore Runtime?
What is Elicitation, and how does it enhance AI agent interactions?
How does Sampling capability benefit AI agents without managing LLM credentials?
Fique Atualizado
Receba as últimas novidades de IA no seu e-mail.
