Code Velocity
AI në Ndërmarrje

Amazon Bedrock: Kapacitetet e klientit Stateful MCP në AgjentCore Runtime

·7 min lexim·AWS·Burimi origjinal
Ndaj
Diagrama që ilustron kapacitetet e klientit MCP me gjendje në Amazon Bedrock AgjentCore Runtime me flukse interaktive të agjentëve AI.

Përmirësimi i Agjentëve AI: Kalimi në MCP me Gjendje në Amazon Bedrock

Agjentët AI po evoluojnë me shpejtësi, megjithatë potenciali i tyre i plotë shpesh është penguar nga implementime pa gjendje, veçanërisht në skenarë që kërkojnë ndërveprim në kohë reale me përdoruesin, gjenerim dinamik të përmbajtjes, ose përditësime të vazhdueshme të progresit. Zhvilluesit që ndërtojnë agjentë AI të sofistikuar shpesh përballen me sfida kur proceset e punës duhet të ndalojnë, të mbledhin sqarime, ose të raportojnë statusin gjatë operacioneve afatgjata. Natyra e ngurtë, njëkahëshe e ekzekutimit pa gjendje kufizon zhvillimin e aplikacioneve AI vërtet interaktive dhe të përgjegjshme.

Tani, Amazon Bedrock AgjentCore Runtime prezanton aftësitë novatore të klientit të Protokollit të Kontekstit të Modelit (MCP) me gjendje, duke transformuar mënyrën se si agjentët AI ndërveprojnë me përdoruesit dhe modelet e mëdha të gjuhës (LLM). Ky përditësim thelbësor çliron agjentët nga kufizimet e komunikimit pa gjendje, duke mundësuar procese pune komplekse, me shumë kthime dhe shumë interaktive. Duke integruar veçoritë thelbësore të klientit MCP – Elisitim, Mostrim dhe Njoftime Progresi – Bedrock AgjentCore Runtime lehtëson bisedat bidirekcionale midis serverëve dhe klientëve MCP, duke hapur rrugën për zgjidhje AI më inteligjente dhe të përqendruara te përdoruesi.

Nga pa Gjendje në me Gjendje: Zhbllokimi i Proceseve të Punës Interaktive të Agjentëve

Më parë, mbështetja e serverit MCP në AgjentCore funksiononte në një modalitet pa gjendje, ku çdo kërkesë HTTP funksiononte në mënyrë të pavarur, pa asnjë kontekst të përbashkët. Ndërsa kjo thjeshtonte vendosjen për serverët e thjeshtë të mjeteve, ajo kufizonte rëndë skenarët që kërkonin vazhdimësi bisedore, sqarim të përdoruesit në mes të procesit të punës, ose raportim të progresit në kohë reale. Serveri thjesht nuk mund të mbante një temë bisede nëpër kërkesa të ndara, duke penguar zhvillimin e agjentëve vërtet interaktivë.

Ardhja e kapaciteteve të klientit MCP me gjendje ndryshon thelbësisht këtë paradigmë. Duke vendosur stateless_http=False gjatë fillimit të serverit, AgjentCore Runtime ofron një microVM të dedikuar për çdo sesion përdoruesi. Ky microVM vazhdon për kohëzgjatjen e sesionit – deri në 8 orë, ose 15 minuta pasiviteti sipas cilësimit idleRuntimeSessionTimeout – duke siguruar izolim të CPU-së, memories dhe sistemit të skedarëve midis sesioneve. Vazhdimësia mbahet përmes një koke Mcp-Session-Id, të cilën serveri e ofron gjatë inicializimit dhe klienti e përfshin në të gjitha kërkesat pasuese për t'u kthyer në të njëjtin sesion. Ky mjedis i dedikuar, i qëndrueshëm u lejon agjentëve të mbajnë mend kontekstin, të kërkojnë të dhëna nga përdoruesi, të gjenerojnë përmbajtje dinamike LLM dhe të ofrojnë përditësime të vazhdueshme.

Tabela e mëposhtme përmbledh ndryshimet kyçe midis modaliteteve pa gjendje dhe me gjendje:

Modaliteti pa gjendjeModaliteti me gjendje
Cilësimi stateless_httpTRUEFALSE
Izolimi i sesionitMicroVM i dedikuar për çdo sesionMicroVM i dedikuar për çdo sesion
Jetëgjatësia e sesionitDeri në 8 orë; afat skadence 15 min pasivitetDeri në 8 orë; afat skadence 15 min pasivitet
Kapacitetet e klientitNuk mbështetenElisitim, mostrim, njoftime progresi
Rekomandohet përShërbim i thjeshtë mjeteshProcese pune interaktive, me shumë kthime

Kur një sesion skadon ose serveri rifillon, kërkesat pasuese me ID-në e sesionit të hershëm do të kthejnë një 404. Në atë pikë, klientët duhet të ri-inicializojnë lidhjen për të marrë një ID të re sesioni dhe për të filluar një sesion të ri. Ndryshimi i konfigurimit për të aktivizuar modalitetin me gjendje është një flamur i vetëm në fillimin e serverit tuaj:

mcp.run( transport="streamable-http", host="0.0.0.0", port=8000, stateless_http=False # Aktivizo modalitetin me gjendje)

Përtej këtij flamuri, tre kapacitetet e klientit bëhen automatikisht të disponueshme pasi klienti MCP deklaron mbështetjen për to gjatë shtrëngimit të duarve të inicializimit.

Një Vështrim i Thellë në Kapacitetet e Reja të Klientit: Elisitimi, Mostrimi dhe Progresi

Me kalimin në modalitetin me gjendje, Amazon Bedrock AgjentCore Runtime zhbllokon tre kapacitete të fuqishme klienti nga specifikimi MCP, secila e projektuar për të adresuar modele ndërveprimi të dallueshme, thelbësore për agjentët AI të avancuar. Këto kapacitete transformojnë atë që dikur ishte një ekzekutim i ngurtë, njëkahësh i komandave, në një dialog fluid, dydrejtuesh midis një serveri MCP dhe klientëve të tij të lidhur. Është e rëndësishme të theksohet se këto veçori janë opsionale, që do të thotë se klientët deklarojnë mbështetjen e tyre gjatë inicializimit, dhe serverët duhet të përdorin vetëm kapacitete që klienti i lidhur i ka reklamuar.

Elisitimi: Mundësimi i Të Dhënave Dinamike nga Përdoruesi në Agjentët AI

Elisitimi qëndron si një gur themeli i AI interaktive, duke i lejuar një serveri MCP të ndërpresë me kujdes ekzekutimin e tij dhe të kërkojë të dhëna specifike, të strukturuara nga përdoruesi nëpërmjet klientit. Kjo aftësi i jep mjetit fuqinë të bëjë pyetje të sakta në momente të përshtatshme brenda procesit të tij të punës, qoftë për të konfirmuar një vendim, për të mbledhur një preferencë të përdoruesit, ose për të mbledhur një vlerë të nxjerrë nga operacionet paraprake. Serveri e inicion këtë duke dërguar një kërkesë elicitation/create JSON-RPC, e cila përfshin një mesazh të lexueshëm nga njeriu dhe një requestedSchema opsional që përshkruan strukturën e pritshme të përgjigjes.

Specifikimi MCP ofron dy modalitete të fuqishme për elisitimin:

  • Modaliteti i formularit: Ky është ideal për mbledhjen e të dhënave të strukturuara drejtpërdrejt përmes klientit MCP, të tilla si parametrat e konfigurimit, preferencat e përdoruesit, ose konfirmime të thjeshta ku nuk përfshihen të dhëna të ndjeshme.
  • Modaliteti i URL-së: Për ndërveprimet që kërkojnë një proces të sigurt, jashtë bandës, si flukset OAuth, përpunimi i pagesave, ose futja e kredencialeve të ndjeshme, modaliteti i URL-së e drejton përdoruesin në një URL të jashtme. Kjo siguron që informacioni i ndjeshëm të anashkalojë plotësisht klientin MCP, duke rritur sigurinë dhe pajtueshmërinë.

Pas marrjes së një kërkese elisitim, klienti paraqet një ndërfaqe të përshtatshme hyrëse. Veprimi pasues i përdoruesit shkakton një model përgjigjeje me tre veprime drejt serverit: prano (përdoruesi dha të dhënat e kërkuara), refuzo (përdoruesi refuzoi shprehimisht kërkesën), ose anulo (përdoruesi hoqi dritaren pa bërë një zgjedhje). Serverat inteligjentë janë projektuar për të menaxhuar secilin prej këtyre skenarëve me elegancë, duke siguruar një përvojë të fortë dhe miqësore për përdoruesin. Për shembull, një mjet add_expense_interactive, siç demonstrohet në materialin burimor, mund të udhëzojë një përdorues përmes një sërë pyetjesh – shuma, përshkrimi, kategoria dhe konfirmimi përfundimtar – para se të angazhojë të dhënat në një backend si Amazon DynamoDB. Çdo hap shfrytëzon modelet Pydantic për të përcaktuar hyrjen e pritshme, të cilën FastMCP e konverton pa probleme në Skemën JSON të kërkuar për kërkesën elicitation/create.

Mostrimi dhe Njoftimet e Progresit: Rritja e Ndërveprimit dhe Transparencës së LLM

Përtej ndërveprimit të drejtpërdrejtë me përdoruesin, Mostrimi pajis serverin MCP me aftësinë për të kërkuar përmbajtje të gjeneruar nga LLM drejtpërdrejt nga klienti nëpërmjet sampling/createMessage. Ky është një mekanizëm kritik pasi i lejon logjikës së mjetit në server të shfrytëzojë aftësitë e fuqishme të modelit të gjuhës pa pasur nevojë të menaxhojë kredencialet e veta të LLM ose integrimet e drejtpërdrejta të API-t. Serveri thjesht ofron një prompt dhe preferenca opsionale të modelit, dhe klienti, duke vepruar si ndërmjetës, e përcjell kërkesën tek LLM-ja e tij e lidhur dhe ia kthen përgjigjen e gjeneruar. Kjo hap një sërë aplikacionesh praktike, duke përfshirë krijimin e përmbledhjeve të personalizuara, gjenerimin e shpjegimeve në gjuhë natyrale nga të dhënat e strukturuara, ose prodhimin e rekomandimeve të ndërgjegjshme për kontekstin bazuar në bisedën në vazhdim.

Për operacionet që zgjaten në kohë, Njoftimet e Progresit bëhen të paçmueshme. Kjo aftësi i lejon një serveri MCP të raportojë përditësime inkrementale gjatë detyrave afatgjata. Duke përdorur ctx.report_progress(progress, total), serveri mund të emetojë përditësime të vazhdueshme që klientët mund t'i përkthejnë në reagime vizuale, si një shirit progresi ose një tregues statusi. Qoftë duke kërkuar në burime të mëdha të dhënash ose duke ekzekutuar detyra komplekse llogaritëse, përditësimet transparente të progresit sigurojnë që përdoruesit të mbeten të informuar, duke parandaluar zhgënjimin dhe duke përmirësuar përvojën e përgjithshme të përdoruesit, në vend që t'i lënë ata të shikojnë një ekran bosh duke u pyetur nëse sistemi është ende aktiv.

E Ardhmja e Zhvillimit të Agjentëve AI me Bedrock AgjentCore Runtime

Prezantimi i kapaciteteve të klientit MCP me gjendje në Amazon Bedrock AgjentCore Runtime përfaqëson një hap të rëndësishëm përpara në zhvillimin e agjentëve AI. Duke transformuar ndërveprimet më parë pa gjendje në biseda dinamike, bidirekcionale, AWS u jep zhvilluesve mundësinë të ndërtojnë aplikacione AI më inteligjente, të përgjegjshme dhe miqësore për përdoruesin. Këto kapacitete – Elisitimi për të dhëna të udhëzuara nga përdoruesi, Mostrimi për gjenerim LLM sipas kërkesës dhe Njoftimet e Progresit për transparencë në kohë reale – kolektivisht zhbllokojnë një epokë të re të proceseve të punës interaktive të agjentëve. Ndërsa AI vazhdon të evoluojë, këto aftësi themelore do të jenë thelbësore për krijimin e AI agjentike operacionale të sofistikuar që mund të integrohet pa probleme në proceset komplekse të biznesit, të përshtatet me nevojat e përdoruesve dhe të ofrojë vlerë të jashtëzakonshme.

Pyetjet e bëra shpesh

What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
Stateful Model Context Protocol (MCP) client capabilities on Amazon Bedrock AgentCore Runtime address the critical limitations of previous stateless AI agent implementations. Stateless agents struggled with interactive, multi-turn workflows, as they couldn't pause mid-execution to solicit user input for clarification, request dynamic large language model (LLM)-generated content, or provide real-time progress updates during lengthy operations. Each request was independent, lacking shared context. This new feature fundamentally transforms agent interactions by enabling bidirectional conversations, allowing agents to maintain conversational threads, gather necessary input precisely when needed, generate dynamic content on the fly, and transparently inform users about ongoing processes. This leads to the development of significantly more responsive, intelligent, and user-centric AI applications capable of complex, adaptive workflows.
How does the transition from stateless to stateful mode work on AgentCore Runtime?
The transition to stateful mode within Amazon Bedrock AgentCore Runtime is initiated by a simple configuration adjustment: setting `stateless_http=False` when starting your MCP server. Once enabled, AgentCore Runtime provisions a dedicated microVM for each individual user session. This microVM is designed for persistence throughout the session's duration, which can last up to 8 hours or expire after 15 minutes of inactivity, ensuring isolated CPU, memory, and filesystem resources for each session. Continuity across interactions is maintained through a unique `Mcp-Session-Id` header. This ID is established during the initial handshake and subsequently included by the client in all follow-up requests, ensuring they are accurately routed back to the correct, persistent session, thereby preserving context and enabling complex, interactive dialogues.
What is Elicitation, and how does it enhance AI agent interactions?
Elicitation is a powerful stateful MCP capability that allows an AI agent (acting as the MCP server) to intelligently pause its ongoing execution and request specific, structured input directly from the user via the client. This significantly enhances interactive agent workflows by enabling agents to ask targeted questions at precise, opportune moments within their operational flow. For example, an agent might use elicitation to confirm a decision, gather user preferences, or collect particular data values that are contingent on preceding steps. The feature supports two robust modes: 'Form mode' for direct structured data collection through the MCP client, and 'URL mode' for secure, out-of-band interactions that require directing the user to an external URL (e.g., for OAuth or sensitive credential entry). The user's response – whether accepting, declining, or canceling the request – is then returned to the server, allowing the agent to dynamically adapt its workflow based on real-time human feedback.
How does Sampling capability benefit AI agents without managing LLM credentials?
Sampling equips the MCP server with the ability to request sophisticated large language model (LLM)-generated content directly from the client using the `sampling/createMessage` mechanism. A key benefit is that the MCP server itself does not need to manage its own LLM credentials, API keys, or direct integrations with various LLM providers. Instead, the server simply provides a well-formed prompt and any optional model preferences to the client. The client then acts as an intelligent intermediary, forwarding this request to its connected LLM and returning the generated response back to the server. This abstraction allows AI agents to seamlessly leverage powerful language model capabilities for tasks such as crafting personalized summaries, generating natural-language explanations from complex structured data, or producing context-aware recommendations, all while simplifying the operational overhead and security concerns associated with LLM management on the server side.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj