Përmirësimi i Agjentëve AI: Kalimi në MCP me Gjendje në Amazon Bedrock
Agjentët AI po evoluojnë me shpejtësi, megjithatë potenciali i tyre i plotë shpesh është penguar nga implementime pa gjendje, veçanërisht në skenarë që kërkojnë ndërveprim në kohë reale me përdoruesin, gjenerim dinamik të përmbajtjes, ose përditësime të vazhdueshme të progresit. Zhvilluesit që ndërtojnë agjentë AI të sofistikuar shpesh përballen me sfida kur proceset e punës duhet të ndalojnë, të mbledhin sqarime, ose të raportojnë statusin gjatë operacioneve afatgjata. Natyra e ngurtë, njëkahëshe e ekzekutimit pa gjendje kufizon zhvillimin e aplikacioneve AI vërtet interaktive dhe të përgjegjshme.
Tani, Amazon Bedrock AgjentCore Runtime prezanton aftësitë novatore të klientit të Protokollit të Kontekstit të Modelit (MCP) me gjendje, duke transformuar mënyrën se si agjentët AI ndërveprojnë me përdoruesit dhe modelet e mëdha të gjuhës (LLM). Ky përditësim thelbësor çliron agjentët nga kufizimet e komunikimit pa gjendje, duke mundësuar procese pune komplekse, me shumë kthime dhe shumë interaktive. Duke integruar veçoritë thelbësore të klientit MCP – Elisitim, Mostrim dhe Njoftime Progresi – Bedrock AgjentCore Runtime lehtëson bisedat bidirekcionale midis serverëve dhe klientëve MCP, duke hapur rrugën për zgjidhje AI më inteligjente dhe të përqendruara te përdoruesi.
Nga pa Gjendje në me Gjendje: Zhbllokimi i Proceseve të Punës Interaktive të Agjentëve
Më parë, mbështetja e serverit MCP në AgjentCore funksiononte në një modalitet pa gjendje, ku çdo kërkesë HTTP funksiononte në mënyrë të pavarur, pa asnjë kontekst të përbashkët. Ndërsa kjo thjeshtonte vendosjen për serverët e thjeshtë të mjeteve, ajo kufizonte rëndë skenarët që kërkonin vazhdimësi bisedore, sqarim të përdoruesit në mes të procesit të punës, ose raportim të progresit në kohë reale. Serveri thjesht nuk mund të mbante një temë bisede nëpër kërkesa të ndara, duke penguar zhvillimin e agjentëve vërtet interaktivë.
Ardhja e kapaciteteve të klientit MCP me gjendje ndryshon thelbësisht këtë paradigmë. Duke vendosur stateless_http=False gjatë fillimit të serverit, AgjentCore Runtime ofron një microVM të dedikuar për çdo sesion përdoruesi. Ky microVM vazhdon për kohëzgjatjen e sesionit – deri në 8 orë, ose 15 minuta pasiviteti sipas cilësimit idleRuntimeSessionTimeout – duke siguruar izolim të CPU-së, memories dhe sistemit të skedarëve midis sesioneve. Vazhdimësia mbahet përmes një koke Mcp-Session-Id, të cilën serveri e ofron gjatë inicializimit dhe klienti e përfshin në të gjitha kërkesat pasuese për t'u kthyer në të njëjtin sesion. Ky mjedis i dedikuar, i qëndrueshëm u lejon agjentëve të mbajnë mend kontekstin, të kërkojnë të dhëna nga përdoruesi, të gjenerojnë përmbajtje dinamike LLM dhe të ofrojnë përditësime të vazhdueshme.
Tabela e mëposhtme përmbledh ndryshimet kyçe midis modaliteteve pa gjendje dhe me gjendje:
| Modaliteti pa gjendje | Modaliteti me gjendje | |
|---|---|---|
Cilësimi stateless_http | TRUE | FALSE |
| Izolimi i sesionit | MicroVM i dedikuar për çdo sesion | MicroVM i dedikuar për çdo sesion |
| Jetëgjatësia e sesionit | Deri në 8 orë; afat skadence 15 min pasivitet | Deri në 8 orë; afat skadence 15 min pasivitet |
| Kapacitetet e klientit | Nuk mbështeten | Elisitim, mostrim, njoftime progresi |
| Rekomandohet për | Shërbim i thjeshtë mjetesh | Procese pune interaktive, me shumë kthime |
Kur një sesion skadon ose serveri rifillon, kërkesat pasuese me ID-në e sesionit të hershëm do të kthejnë një 404. Në atë pikë, klientët duhet të ri-inicializojnë lidhjen për të marrë një ID të re sesioni dhe për të filluar një sesion të ri. Ndryshimi i konfigurimit për të aktivizuar modalitetin me gjendje është një flamur i vetëm në fillimin e serverit tuaj:
mcp.run( transport="streamable-http", host="0.0.0.0", port=8000, stateless_http=False # Aktivizo modalitetin me gjendje)
Përtej këtij flamuri, tre kapacitetet e klientit bëhen automatikisht të disponueshme pasi klienti MCP deklaron mbështetjen për to gjatë shtrëngimit të duarve të inicializimit.
Një Vështrim i Thellë në Kapacitetet e Reja të Klientit: Elisitimi, Mostrimi dhe Progresi
Me kalimin në modalitetin me gjendje, Amazon Bedrock AgjentCore Runtime zhbllokon tre kapacitete të fuqishme klienti nga specifikimi MCP, secila e projektuar për të adresuar modele ndërveprimi të dallueshme, thelbësore për agjentët AI të avancuar. Këto kapacitete transformojnë atë që dikur ishte një ekzekutim i ngurtë, njëkahësh i komandave, në një dialog fluid, dydrejtuesh midis një serveri MCP dhe klientëve të tij të lidhur. Është e rëndësishme të theksohet se këto veçori janë opsionale, që do të thotë se klientët deklarojnë mbështetjen e tyre gjatë inicializimit, dhe serverët duhet të përdorin vetëm kapacitete që klienti i lidhur i ka reklamuar.
Elisitimi: Mundësimi i Të Dhënave Dinamike nga Përdoruesi në Agjentët AI
Elisitimi qëndron si një gur themeli i AI interaktive, duke i lejuar një serveri MCP të ndërpresë me kujdes ekzekutimin e tij dhe të kërkojë të dhëna specifike, të strukturuara nga përdoruesi nëpërmjet klientit. Kjo aftësi i jep mjetit fuqinë të bëjë pyetje të sakta në momente të përshtatshme brenda procesit të tij të punës, qoftë për të konfirmuar një vendim, për të mbledhur një preferencë të përdoruesit, ose për të mbledhur një vlerë të nxjerrë nga operacionet paraprake. Serveri e inicion këtë duke dërguar një kërkesë elicitation/create JSON-RPC, e cila përfshin një mesazh të lexueshëm nga njeriu dhe një requestedSchema opsional që përshkruan strukturën e pritshme të përgjigjes.
Specifikimi MCP ofron dy modalitete të fuqishme për elisitimin:
- Modaliteti i formularit: Ky është ideal për mbledhjen e të dhënave të strukturuara drejtpërdrejt përmes klientit MCP, të tilla si parametrat e konfigurimit, preferencat e përdoruesit, ose konfirmime të thjeshta ku nuk përfshihen të dhëna të ndjeshme.
- Modaliteti i URL-së: Për ndërveprimet që kërkojnë një proces të sigurt, jashtë bandës, si flukset OAuth, përpunimi i pagesave, ose futja e kredencialeve të ndjeshme, modaliteti i URL-së e drejton përdoruesin në një URL të jashtme. Kjo siguron që informacioni i ndjeshëm të anashkalojë plotësisht klientin MCP, duke rritur sigurinë dhe pajtueshmërinë.
Pas marrjes së një kërkese elisitim, klienti paraqet një ndërfaqe të përshtatshme hyrëse. Veprimi pasues i përdoruesit shkakton një model përgjigjeje me tre veprime drejt serverit: prano (përdoruesi dha të dhënat e kërkuara), refuzo (përdoruesi refuzoi shprehimisht kërkesën), ose anulo (përdoruesi hoqi dritaren pa bërë një zgjedhje). Serverat inteligjentë janë projektuar për të menaxhuar secilin prej këtyre skenarëve me elegancë, duke siguruar një përvojë të fortë dhe miqësore për përdoruesin. Për shembull, një mjet add_expense_interactive, siç demonstrohet në materialin burimor, mund të udhëzojë një përdorues përmes një sërë pyetjesh – shuma, përshkrimi, kategoria dhe konfirmimi përfundimtar – para se të angazhojë të dhënat në një backend si Amazon DynamoDB. Çdo hap shfrytëzon modelet Pydantic për të përcaktuar hyrjen e pritshme, të cilën FastMCP e konverton pa probleme në Skemën JSON të kërkuar për kërkesën elicitation/create.
Mostrimi dhe Njoftimet e Progresit: Rritja e Ndërveprimit dhe Transparencës së LLM
Përtej ndërveprimit të drejtpërdrejtë me përdoruesin, Mostrimi pajis serverin MCP me aftësinë për të kërkuar përmbajtje të gjeneruar nga LLM drejtpërdrejt nga klienti nëpërmjet sampling/createMessage. Ky është një mekanizëm kritik pasi i lejon logjikës së mjetit në server të shfrytëzojë aftësitë e fuqishme të modelit të gjuhës pa pasur nevojë të menaxhojë kredencialet e veta të LLM ose integrimet e drejtpërdrejta të API-t. Serveri thjesht ofron një prompt dhe preferenca opsionale të modelit, dhe klienti, duke vepruar si ndërmjetës, e përcjell kërkesën tek LLM-ja e tij e lidhur dhe ia kthen përgjigjen e gjeneruar. Kjo hap një sërë aplikacionesh praktike, duke përfshirë krijimin e përmbledhjeve të personalizuara, gjenerimin e shpjegimeve në gjuhë natyrale nga të dhënat e strukturuara, ose prodhimin e rekomandimeve të ndërgjegjshme për kontekstin bazuar në bisedën në vazhdim.
Për operacionet që zgjaten në kohë, Njoftimet e Progresit bëhen të paçmueshme. Kjo aftësi i lejon një serveri MCP të raportojë përditësime inkrementale gjatë detyrave afatgjata. Duke përdorur ctx.report_progress(progress, total), serveri mund të emetojë përditësime të vazhdueshme që klientët mund t'i përkthejnë në reagime vizuale, si një shirit progresi ose një tregues statusi. Qoftë duke kërkuar në burime të mëdha të dhënash ose duke ekzekutuar detyra komplekse llogaritëse, përditësimet transparente të progresit sigurojnë që përdoruesit të mbeten të informuar, duke parandaluar zhgënjimin dhe duke përmirësuar përvojën e përgjithshme të përdoruesit, në vend që t'i lënë ata të shikojnë një ekran bosh duke u pyetur nëse sistemi është ende aktiv.
E Ardhmja e Zhvillimit të Agjentëve AI me Bedrock AgjentCore Runtime
Prezantimi i kapaciteteve të klientit MCP me gjendje në Amazon Bedrock AgjentCore Runtime përfaqëson një hap të rëndësishëm përpara në zhvillimin e agjentëve AI. Duke transformuar ndërveprimet më parë pa gjendje në biseda dinamike, bidirekcionale, AWS u jep zhvilluesve mundësinë të ndërtojnë aplikacione AI më inteligjente, të përgjegjshme dhe miqësore për përdoruesin. Këto kapacitete – Elisitimi për të dhëna të udhëzuara nga përdoruesi, Mostrimi për gjenerim LLM sipas kërkesës dhe Njoftimet e Progresit për transparencë në kohë reale – kolektivisht zhbllokojnë një epokë të re të proceseve të punës interaktive të agjentëve. Ndërsa AI vazhdon të evoluojë, këto aftësi themelore do të jenë thelbësore për krijimin e AI agjentike operacionale të sofistikuar që mund të integrohet pa probleme në proceset komplekse të biznesit, të përshtatet me nevojat e përdoruesve dhe të ofrojë vlerë të jashtëzakonshme.
Burimi origjinal
https://aws.amazon.com/blogs/machine-learning/introducing-stateful-mcp-client-capabilities-on-amazon-bedrock-agentcore-runtime/Pyetjet e bëra shpesh
What problem do stateful MCP client capabilities solve on Amazon Bedrock AgentCore Runtime?
How does the transition from stateless to stateful mode work on AgentCore Runtime?
What is Elicitation, and how does it enhance AI agent interactions?
How does Sampling capability benefit AI agents without managing LLM credentials?
Qëndroni të përditësuar
Merrni lajmet më të fundit të AI në email.
