Code Velocity
Umjetna inteligencija za poduzeća

Amazon Bedrock: Mogućnosti MCP klijenta sa stanjem na AgentCore Runtimeu

·7 min čitanja·AWS·Izvorni izvor
Podijeli
Dijagram koji ilustrira mogućnosti MCP klijenta sa stanjem na Amazon Bedrock AgentCore Runtimeu s interaktivnim tokovima AI agenata.

Osim ove zastavice, tri mogućnosti klijenta automatski postaju dostupne kada MCP klijent deklarira podršku za njih tijekom inicijalizacijskog rukovanja.

Dubinski uvid u nove mogućnosti klijenta: Elicitacija, Uzorkovanje i Napredak

S prijelazom na način rada sa stanjem, Amazon Bedrock AgentCore Runtime otključava tri moćne mogućnosti klijenta iz MCP specifikacije, svaka dizajnirana za rješavanje različitih obrazaca interakcije ključnih za napredne AI agente. Ove mogućnosti transformiraju ono što je nekoć bilo kruto, jednosmjerno izvršavanje naredbi u fluidan, dvosmjerni dijalog između MCP poslužitelja i njegovih povezanih klijenata. Važno je napomenuti da su ove značajke opt-in, što znači da klijenti deklariraju svoju podršku tijekom inicijalizacije, a poslužitelji moraju koristiti samo mogućnosti koje je povezani klijent oglasio.

Elicitacija: Omogućavanje dinamičnog korisničkog unosa kod AI agenata

Elicitacija stoji kao temelj interaktivne umjetne inteligencije, omogućujući MCP poslužitelju da razborito pauzira svoje izvršavanje i zatraži specifičan, strukturirani unos od korisnika putem klijenta. Ova mogućnost ovlašćuje alat da postavlja precizna pitanja u povoljnim trenucima unutar svog radnog procesa, bilo da je riječ o potvrđivanju odluke, prikupljanju korisničkih preferencija ili prikupljanju vrijednosti izvedenih iz prethodnih operacija. Poslužitelj to inicira slanjem JSON-RPC zahtjeva elicitation/create, koji uključuje poruku čitljivu ljudima i opcionalnu requestedSchema koja definira očekivanu strukturu odgovora.

MCP specifikacija pruža dva robusna načina za elicitaciju:

  • Form mode (Način obrasca): Ovo je idealno za izravno prikupljanje strukturiranih podataka putem MCP klijenta, kao što su parametri konfiguracije, korisničke preferencije ili jednostavne potvrde gdje se ne radi o osjetljivim podacima.
  • URL mode (URL način): Za interakcije koje zahtijevaju siguran, izvanpojasni proces, poput OAuth tokova, obrade plaćanja ili unosa osjetljivih vjerodajnica, URL način usmjerava korisnika na vanjski URL. To osigurava da osjetljive informacije u potpunosti zaobiđu MCP klijenta, poboljšavajući sigurnost i usklađenost.

Po primitku zahtjeva za elicitaciju, klijent prikazuje odgovarajuće sučelje za unos. Korisnikova naknadna radnja pokreće model odgovora s tri radnje natrag poslužitelju: accept (korisnik je pružio tražene podatke), decline (korisnik je izričito odbio zahtjev) ili cancel (korisnik je odbacio prompt bez donošenja izbora). Inteligentni poslužitelji dizajnirani su za graciozno rukovanje svakim od ovih scenarija, osiguravajući robusno iskustvo prilagođeno korisniku. Na primjer, alat add_expense_interactive, kako je prikazano u izvornom materijalu, može voditi korisnika kroz niz pitanja – iznos, opis, kategoriju i konačnu potvrdu – prije slanja podataka na pozadinu poput Amazon DynamoDB-a. Svaki korak koristi Pydantic modele za definiranje očekivanog unosa, koje FastMCP besprijekorno pretvara u JSON Shemu potrebnu za zahtjev elicitation/create.

Uzorkovanje i obavijesti o napretku: Poticanje LLM interakcije i transparentnosti

Osim izravne korisničke interakcije, Uzorkovanje (Sampling) oprema MCP poslužitelj sposobnošću da zatraži LLM-generirani sadržaj izravno od klijenta putem sampling/createMessage. Ovo je kritičan mehanizam jer omogućuje logici alata na poslužitelju da koristi moćne mogućnosti jezičnog modela bez potrebe za upravljanjem vlastitim LLM vjerodajnicama ili izravnim API integracijama. Poslužitelj jednostavno pruža upit i opcionalne preferencije modela, a klijent, djelujući kao posrednik, prosljeđuje zahtjev svom povezanom LLM-u i vraća generirani odgovor. To otvara mnoštvo praktičnih primjena, uključujući izradu personaliziranih sažetaka, generiranje objašnjenja prirodnog jezika iz strukturiranih podataka ili proizvodnju preporuka svjesnih konteksta temeljenih na tekućem razgovoru.

Za operacije koje se protežu kroz vrijeme, Obavijesti o napretku postaju neprocjenjive. Ova mogućnost omogućuje MCP poslužitelju izvještavanje o inkrementalnim ažuriranjima tijekom dugotrajnih zadataka. Korištenjem ctx.report_progress(progress, total), poslužitelj može emitirati kontinuirana ažuriranja koja klijenti mogu prevesti u vizualnu povratnu informaciju, poput trake napretka ili indikatora statusa. Bez obzira radi li se o pretraživanju golemih izvora podataka ili izvršavanju složenih računalnih zadataka, transparentna ažuriranja napretka osiguravaju da korisnici ostanu informirani, sprječavajući frustraciju i poboljšavajući cjelokupno korisničko iskustvo, umjesto da zure u prazan zaslon pitajući se je li sustav još aktivan.

Priprema razvoja AI agenata za budućnost uz Bedrock AgentCore Runtime

Uvođenje mogućnosti MCP klijenta sa stanjem na Amazon Bedrock AgentCore Runtimeu predstavlja značajan iskorak u razvoju AI agenata. Transformiranjem prethodno beskontekstnih interakcija u dinamične, dvosmjerne razgovore, AWS osnažuje razvojne programere da grade inteligentnije, responzivnije i korisnički prilagođenije AI aplikacije. Ove mogućnosti – Elicitacija za vođeni korisnički unos, Uzorkovanje za generiranje LLM-a na zahtjev i Obavijesti o napretku za transparentnost u stvarnom vremenu – zajedno otključavaju novu eru interaktivnih radnih procesa agenata. Kako se AI nastavlja razvijati, ove temeljne mogućnosti bit će ključne za stvaranje sofisticiranih operacionaliziranih agentskih AI sustava koji se mogu besprijekorno integrirati u složene poslovne procese, prilagoditi se korisničkim potrebama i pružiti iznimnu vrijednost.

Često postavljana pitanja

What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
Stateful Model Context Protocol (MCP) client capabilities on Amazon Bedrock AgentCore Runtime address the critical limitations of previous stateless AI agent implementations. Stateless agents struggled with interactive, multi-turn workflows, as they couldn't pause mid-execution to solicit user input for clarification, request dynamic large language model (LLM)-generated content, or provide real-time progress updates during lengthy operations. Each request was independent, lacking shared context. This new feature fundamentally transforms agent interactions by enabling bidirectional conversations, allowing agents to maintain conversational threads, gather necessary input precisely when needed, generate dynamic content on the fly, and transparently inform users about ongoing processes. This leads to the development of significantly more responsive, intelligent, and user-centric AI applications capable of complex, adaptive workflows.
How does the transition from stateless to stateful mode work on AgentCore Runtime?
The transition to stateful mode within Amazon Bedrock AgentCore Runtime is initiated by a simple configuration adjustment: setting `stateless_http=False` when starting your MCP server. Once enabled, AgentCore Runtime provisions a dedicated microVM for each individual user session. This microVM is designed for persistence throughout the session's duration, which can last up to 8 hours or expire after 15 minutes of inactivity, ensuring isolated CPU, memory, and filesystem resources for each session. Continuity across interactions is maintained through a unique `Mcp-Session-Id` header. This ID is established during the initial handshake and subsequently included by the client in all follow-up requests, ensuring they are accurately routed back to the correct, persistent session, thereby preserving context and enabling complex, interactive dialogues.
What is Elicitation, and how does it enhance AI agent interactions?
Elicitation is a powerful stateful MCP capability that allows an AI agent (acting as the MCP server) to intelligently pause its ongoing execution and request specific, structured input directly from the user via the client. This significantly enhances interactive agent workflows by enabling agents to ask targeted questions at precise, opportune moments within their operational flow. For example, an agent might use elicitation to confirm a decision, gather user preferences, or collect particular data values that are contingent on preceding steps. The feature supports two robust modes: 'Form mode' for direct structured data collection through the MCP client, and 'URL mode' for secure, out-of-band interactions that require directing the user to an external URL (e.g., for OAuth or sensitive credential entry). The user's response – whether accepting, declining, or canceling the request – is then returned to the server, allowing the agent to dynamically adapt its workflow based on real-time human feedback.
How does Sampling capability benefit AI agents without managing LLM credentials?
Sampling equips the MCP server with the ability to request sophisticated large language model (LLM)-generated content directly from the client using the `sampling/createMessage` mechanism. A key benefit is that the MCP server itself does not need to manage its own LLM credentials, API keys, or direct integrations with various LLM providers. Instead, the server simply provides a well-formed prompt and any optional model preferences to the client. The client then acts as an intelligent intermediary, forwarding this request to its connected LLM and returning the generated response back to the server. This abstraction allows AI agents to seamlessly leverage powerful language model capabilities for tasks such as crafting personalized summaries, generating natural-language explanations from complex structured data, or producing context-aware recommendations, all while simplifying the operational overhead and security concerns associated with LLM management on the server side.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli