Code Velocity
IA Empresarial

Amazon Bedrock: Capacitats de client MCP amb estat en AgentCore Runtime

·7 min de lectura·AWS·Font original
Compartir
Diagrama que il·lustra les capacitats de client MCP amb estat en Amazon Bedrock AgentCore Runtime amb fluxos interactius d'agents d'IA.

Més enllà d'aquest indicador, les tres capacitats del client estaran disponibles automàticament un cop el client MCP declari el seu suport durant l'encaix d'inicialització.

Aprofundint en les noves capacitats del client: Elicitació, Mostratge i Progrés

Amb la transició al mode amb estat, Amazon Bedrock AgentCore Runtime desbloqueja tres potents capacitats de client de l'especificació MCP, cadascuna dissenyada per abordar patrons d'interacció distints crucials per a agents d'IA avançats. Aquestes capacitats transformen el que abans era una execució de comandaments rígida i unidireccional en un diàleg fluid i bidireccional entre un servidor MCP i els seus clients connectats. És important tenir en compte que aquestes característiques són opcionals, és a dir, els clients declaren el seu suport durant la inicialització, i els servidors només han d'utilitzar les capacitats que el client connectat hagi anunciat.

Elicitació: Habilitant l'entrada d'usuari dinàmica en agents d'IA

L'Elicitació es presenta com una pedra angular de la IA interactiva, permetent a un servidor MCP pausar judiciosament la seva execució i sol·licitar una entrada específica i estructurada de l'usuari a través del client. Aquesta capacitat permet a l'eina fer preguntes precises en moments oportuns dins del seu flux de treball, ja sigui per confirmar una decisió, recollir una preferència de l'usuari o obtenir un valor derivat d'operacions anteriors. El servidor inicia això enviant una sol·licitud JSON-RPC elicitation/create, que inclou un missatge llegible per humans i un requestedSchema opcional que delimita l'estructura de resposta esperada.

L'especificació MCP proporciona dos modes robustos per a l'elicitació:

  • Mode formulari: És ideal per recollir dades estructurades directament a través del client MCP, com ara paràmetres de configuració, preferències d'usuari o confirmacions senzilles on no hi ha dades sensibles involucrades.
  • Mode URL: Per a interaccions que necessiten un procés segur i fora de banda, com ara fluxos OAuth, processament de pagaments o l'entrada de credencials sensibles, el mode URL dirigeix l'usuari a una URL externa. Això assegura que la informació sensible eviti completament el client MCP, millorant la seguretat i el compliment.

En rebre una sol·licitud d'elicitació, el client renderitza una interfície d'entrada adequada. L'acció posterior de l'usuari activa un model de resposta de tres accions cap al servidor: accept (l'usuari ha proporcionat les dades sol·licitades), decline (l'usuari ha rebutjat explícitament la sol·licitud) o cancel (l'usuari ha desestimat la sol·licitud sense prendre una decisió). Els servidors intel·ligents estan dissenyats per gestionar cadascun d'aquests escenaris amb gràcia, assegurant una experiència robusta i fàcil d'utilitzar. Per exemple, una eina add_expense_interactive, com es demostra en el material font, pot guiar un usuari a través d'una sèrie de preguntes —import, descripció, categoria i confirmació final— abans de comprometre les dades a un backend com Amazon DynamoDB. Cada pas aprofita els models Pydantic per definir l'entrada esperada, que FastMCP converteix de manera transparent en el JSON Schema requerit per a la sol·licitud elicitation/create.

Mostratge i Notificacions de Progrés: Impulsant la interacció i la transparència dels LLM

Més enllà de la interacció directa amb l'usuari, el Mostratge equipa el servidor MCP amb la capacitat de sol·licitar contingut generat per LLM directament del client mitjançant sampling/createMessage. Aquest és un mecanisme crític, ja que permet a la lògica de l'eina al servidor aprofitar les potents capacitats dels models de llenguatge sense necessitat de gestionar les seves pròpies credencials LLM o integracions d'API directes. El servidor simplement proporciona una instrucció i preferències de model opcionals, i el client, actuant com a intermediari, reenvia la sol·licitud al seu LLM connectat i retorna la resposta generada. Això obre un ventall de milers d'aplicacions pràctiques, inclosa la creació de resums personalitzats, la generació d'explicacions en llenguatge natural a partir de dades estructurades o la producció de recomanacions conscients del context basades en la conversa en curs.

Per a operacions que s'allarguen en el temps, les Notificacions de Progrés esdevenen inestimables. Aquesta capacitat permet a un servidor MCP informar d'actualitzacions incrementals durant tasques de llarga durada. Utilitzant ctx.report_progress(progress, total), el servidor pot emetre actualitzacions contínues que els clients poden traduir en retroalimentació visual, com ara una barra de progrés o un indicador d'estat. Ja sigui buscant en vastes fonts de dades o executant tasques computacionals complexes, les actualitzacions de progrés transparents asseguren que els usuaris es mantinguin informats, prevenint la frustració i millorant l'experiència general de l'usuari, en lloc de deixar-los mirant una pantalla en blanc preguntant-se si el sistema encara està actiu.

Preparant el desenvolupament d'agents d'IA per al futur amb Bedrock AgentCore Runtime

La introducció de les capacitats de client MCP amb estat a Amazon Bedrock AgentCore Runtime representa un avenç significatiu en el desenvolupament d'agents d'IA. En transformar interaccions anteriorment sense estat en converses dinàmiques i bidireccionals, AWS empodera els desenvolupadors per construir aplicacions d'IA més intel·ligents, responsives i fàcils d'utilitzar. Aquestes capacitats –Elicitació per a l'entrada d'usuari guiada, Mostratge per a la generació d'LLM sota demanda i Notificacions de Progrés per a la transparència en temps real–, en conjunt, obren una nova era de fluxos de treball d'agents interactius. A mesura que la IA continua evolucionant, aquestes capacitats fonamentals seran crucials per crear una IA agentica operacionalitzadora sofisticada que pugui integrar-se perfectament en processos empresarials complexos, adaptar-se a les necessitats dels usuaris i oferir un valor excepcional.

Preguntes freqüents

What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
Stateful Model Context Protocol (MCP) client capabilities on Amazon Bedrock AgentCore Runtime address the critical limitations of previous stateless AI agent implementations. Stateless agents struggled with interactive, multi-turn workflows, as they couldn't pause mid-execution to solicit user input for clarification, request dynamic large language model (LLM)-generated content, or provide real-time progress updates during lengthy operations. Each request was independent, lacking shared context. This new feature fundamentally transforms agent interactions by enabling bidirectional conversations, allowing agents to maintain conversational threads, gather necessary input precisely when needed, generate dynamic content on the fly, and transparently inform users about ongoing processes. This leads to the development of significantly more responsive, intelligent, and user-centric AI applications capable of complex, adaptive workflows.
How does the transition from stateless to stateful mode work on AgentCore Runtime?
The transition to stateful mode within Amazon Bedrock AgentCore Runtime is initiated by a simple configuration adjustment: setting `stateless_http=False` when starting your MCP server. Once enabled, AgentCore Runtime provisions a dedicated microVM for each individual user session. This microVM is designed for persistence throughout the session's duration, which can last up to 8 hours or expire after 15 minutes of inactivity, ensuring isolated CPU, memory, and filesystem resources for each session. Continuity across interactions is maintained through a unique `Mcp-Session-Id` header. This ID is established during the initial handshake and subsequently included by the client in all follow-up requests, ensuring they are accurately routed back to the correct, persistent session, thereby preserving context and enabling complex, interactive dialogues.
What is Elicitation, and how does it enhance AI agent interactions?
Elicitation is a powerful stateful MCP capability that allows an AI agent (acting as the MCP server) to intelligently pause its ongoing execution and request specific, structured input directly from the user via the client. This significantly enhances interactive agent workflows by enabling agents to ask targeted questions at precise, opportune moments within their operational flow. For example, an agent might use elicitation to confirm a decision, gather user preferences, or collect particular data values that are contingent on preceding steps. The feature supports two robust modes: 'Form mode' for direct structured data collection through the MCP client, and 'URL mode' for secure, out-of-band interactions that require directing the user to an external URL (e.g., for OAuth or sensitive credential entry). The user's response – whether accepting, declining, or canceling the request – is then returned to the server, allowing the agent to dynamically adapt its workflow based on real-time human feedback.
How does Sampling capability benefit AI agents without managing LLM credentials?
Sampling equips the MCP server with the ability to request sophisticated large language model (LLM)-generated content directly from the client using the `sampling/createMessage` mechanism. A key benefit is that the MCP server itself does not need to manage its own LLM credentials, API keys, or direct integrations with various LLM providers. Instead, the server simply provides a well-formed prompt and any optional model preferences to the client. The client then acts as an intelligent intermediary, forwarding this request to its connected LLM and returning the generated response back to the server. This abstraction allows AI agents to seamlessly leverage powerful language model capabilities for tasks such as crafting personalized summaries, generating natural-language explanations from complex structured data, or producing context-aware recommendations, all while simplifying the operational overhead and security concerns associated with LLM management on the server side.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir