Code Velocity
Umetna inteligenca za podjetja

AWS, NVIDIA poglabljata sodelovanje na področju umetne inteligence za pospešitev prehajanja iz pilotnih projektov v produkcijo

·5 min branja·AWS, NVIDIA·Izvirni vir
Deli
Logotipa AWS in NVIDIA sta izrazito prikazana in simbolizirata njuno razširjeno strateško sodelovanje za pospešitev in inovacije na področju umetne inteligence.

AWS, NVIDIA poglabljata sodelovanje na področju umetne inteligence za pospešitev prehajanja iz pilotnih projektov v produkcijo

Umetna inteligenca (UI) preoblikuje industrije z izjemno hitrostjo, vendar resnična vrednost ni le v eksperimentiranju, temveč v uspešni uvedbi in delovanju rešitev UI v produkcijskih okoljih. To zahteva robustne, razširljive, varne in skladne sisteme, ki prinašajo oprijemljive poslovne rezultate. Za reševanje te kritične potrebe sta AWS in NVIDIA na NVIDIA GTC 2026 napovedala pomembno razširitev svojega strateškega sodelovanja, s čimer sta predstavila nove tehnološke integracije, zasnovane za zadovoljevanje naraščajočega povpraševanja po računalništvu UI in pospeševanje rešitev UI v resnično produkcijo.

Poglobljeno partnerstvo se osredotoča na pospeševanje vsakega vidika življenjskega cikla UI, od infrastrukture do uvedbe modelov. Te integracije zajemajo ključna področja, vključno s pospešenim računalništvom, naprednimi medsebojnimi povezovalnimi tehnologijami ter poenostavljenim natančnim uglaševanjem in sklepanjem modelov. Ključne napovedi vključujejo:

  • Uvedba več kot 1 milijona GPU-jev NVIDIA v regijah AWS od leta 2026.
  • Podpora za Amazon EC2 za GPU-je NVIDIA RTX PRO 4500 Blackwell Server Edition, zaradi česar je AWS prvi večji ponudnik oblaka, ki to ponuja.
  • Pospešitev medsebojne povezave za razdruženo sklepanje velikih jezikovnih modelov (LLM) z uporabo NVIDIA NIXL na AWS Elastic Fabric Adapter (EFA).
  • Dramatično 3-krat hitrejša zmogljivost za delovne obremenitve Apache Spark z uporabo Amazon EMR na Amazon Elastic Kubernetes Service (Amazon EKS) z instancami Amazon EC2 G7e, ki jih poganjajo GPU-ji NVIDIA RTX PRO 6000 Blackwell Server Edition.
  • Razširjena podpora za model NVIDIA Nemotron na Amazon Bedrock, vključno z ojačitvenim natančnim uglaševanjem (Reinforcement Fine-Tuning) in modelom Nemotron 3 Super.

Razširitev infrastrukture UI z izboljšano močjo GPU-jev NVIDIA

Temelj sodobne UI leži v zmogljivi računalniški infrastrukturi. Z letom 2026 se AWS zavezuje monumentalni zavezi napredku UI z dodajanjem več kot 1 milijona GPU-jev NVIDIA v svoje globalne oblačne regije. To vključuje arhitekturi GPU-jev naslednje generacije Blackwell in Rubin, kar zagotavlja, da imajo stranke dostop do najnaprednejše strojne opreme. AWS se že ponaša z najširšo zbirko instanc, ki temeljijo na GPU-jih NVIDIA, in skrbi za raznolik spekter delovnih obremenitev AI/ML, ta razširitev pa dodatno utrjuje njegovo vodilno vlogo.

To dolgoletno partnerstvo, ki traja več kot 15 let, se razteza tudi na ključna področja infrastrukture, kot je Spectrum mreženje. Cilj je zagotoviti podjetjem, startupom in raziskovalcem robustno infrastrukturo, potrebno za izgradnjo in razširitev naprednih agentnih sistemov UI—UI, ki je sposobna avtonomnega sklepanja, načrtovanja in delovanja v kompleksnih delovnih procesih.

Predstavitev novih instanc Amazon EC2 in inovacij na področju medsebojnih povezav

Poudarek sodelovanja so prihajajoče instance Amazon EC2, pospešene z GPU-ji NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS je ponosen, da je prvi večji ponudnik oblaka, ki je napovedal podporo za te zmogljive GPU-je, s čimer so postali dostopni za širok spekter zahtevnih nalog. Te instance so idealne za analizo podatkov, sofisticirano pogovorno UI, dinamično generiranje vsebine, napredne sisteme priporočil, visokokakovostno pretakanje videa in kompleksne grafične delovne obremenitve.

Te nove instance EC2 bodo zgrajene na robustnem sistemu AWS Nitro. Sistem Nitro s svojo edinstveno kombinacijo namenske strojne opreme in lahkega hipervizorja zagotavlja skoraj vse računske in pomnilniške vire gostiteljske strojne opreme neposredno instancam. Ta zasnova zagotavlja vrhunsko izkoriščenost virov in zmogljivost. Ključnega pomena je, da so specializirana strojna oprema, programska oprema in vdelana programska oprema sistema Nitro zasnovane tako, da uveljavljajo stroge omejitve, ki ščitijo občutljive delovne obremenitve in podatke UI pred nepooblaščenim dostopom, tudi znotraj AWS. Njegova sposobnost izvajanja posodobitev vdelane programske opreme in optimizacij med delovanjem dodatno izboljšuje varnost in stabilnost, ki sta bistveni za produkcijske delovne obremenitve UI, analitike in grafike.

Dodatno izboljšanje zmogljivosti, zlasti za ogromne modele UI, je pospeševanje medsebojnih povezav za razdruženo sklepanje LLM. Ker se velikosti modelov še naprej povečujejo, lahko komunikacijski stroški med GPU-ji ali instancami AWS Trainium postanejo pomembno ozko grlo. AWS je napovedal podporo za NVIDIA Inference Xfer Library (NIXL) z AWS Elastic Fabric Adapter (EFA), zasnovano za pospešitev razdruženega sklepanja LLM na Amazon EC2, ki zajema tako GPU-je NVIDIA kot AWS Trainium. Ta integracija je ključnega pomena za skaliranje sodobnih delovnih obremenitev UI, kar omogoča učinkovito prekrivanje komunikacije in računanja, zmanjšanje zakasnitev in maksimiranje izkoriščenosti GPU-ja. Olajšuje premikanje podatkov KV-predpomnilnika z visoko prepustnostjo in nizko zakasnitvijo med računskimi vozlišči in porazdeljenimi pomnilniškimi viri. NIXL z EFA se izvorno integrira s priljubljenimi odprtokodnimi okviri, kot so NVIDIA Dynamo, vLLM in SGLang, kar zagotavlja izboljšano zakasnitev med žetoni in učinkovitejšo izkoriščenost pomnilnika KV-predpomnilnika.

Pospeševanje analize podatkov z Amazon EMR in GPU-ji

Podatkovni inženirji in znanstveniki se pogosto spopadajo z dolgotrajnimi cevovodi za obdelavo podatkov, ki lahko pomembno ovirajo iteracijo modelov AI/ML in generiranje poslovne inteligence. Sodelovanje AWS in NVIDIA prinaša prelomno izboljšavo: 3-krat hitrejša zmogljivost za delovne obremenitve Apache Spark. To pospeševanje je doseženo z izkoriščanjem Amazon EMR na Amazon EKS z instancami G7e, ki jih poganjajo GPU-ji NVIDIA RTX PRO 6000 Blackwell Server Edition.

Ta znatna izboljšava zmogljivosti je neposreden rezultat skupnih inženirskih prizadevanj, osredotočenih na optimizacijo analitike, pospešene z GPU-ji. Z instancami Amazon EMR in G7e lahko organizacije drastično skrajšajo čas, potreben za inženiring funkcij AI/ML, kompleksne transformacije ETL in analitiko v realnem času v velikem obsegu. Stranke, ki izvajajo obsežne cevovode za obdelavo podatkov, lahko dosežejo hitrejši čas do vpogleda, hkrati pa ohranijo popolno združljivost z obstoječimi aplikacijami Spark.

Razširitev podpore za model NVIDIA Nemotron na Amazon Bedrock

AWS in NVIDIA razširjata tudi svoje sodelovanje na področju temeljnih modelov in prinašata napredne modele NVIDIA Nemotron na Amazon Bedrock.

Razvijalci bodo kmalu imeli možnost natančno uglaševati modele NVIDIA Nemotron neposredno na Amazon Bedrock z uporabo ojačitvenega natančnega uglaševanja (RFT). To je prelomno za ekipe, ki morajo prilagoditi vedenje modela specifičnim domenam, bodisi v pravu, zdravstvu, financah ali drugih specializiranih področjih. RFT uporabnikom omogoča, da oblikujejo način sklepanja in odzivanja modela, s čimer presegajo zgolj pridobivanje znanja in prehajajo na niansirano vedenjsko usklajenost. Ključnega pomena je, da to deluje izvorno na Amazon Bedrock, kar odpravlja infrastrukturne stroške – uporabniki določijo nalogo, zagotovijo povratne informacije, Bedrock pa upravlja ostalo.

Poleg tega bo kmalu na voljo tudi NVIDIA Nemotron 3 Super, hibridni model Mixture-of-Experts (MoE), zgrajen za delovne obremenitve z več agenti in razširjeno sklepanje, ki prihaja na Amazon Bedrock. Zasnovan je tako, da pomaga agentom UI ohranjati natančnost v kompleksnih, večstopenjskih delovnih procesih, Nemotron 3 Super pa bo poganjal raznolike primere uporabe, ki zajemajo finance, kibernetsko varnost, maloprodajo in razvoj programske opreme. Obljublja hitro in stroškovno učinkovito sklepanje prek popolnoma upravljanega API-ja, kar poenostavlja uvedbo sofisticiranih agentov UI.

Tukaj je povzetek ključnih napovedi:

Funkcija/IntegracijaOpisGlavna koristRazpoložljivost
Uvedba GPU-jevVeč kot 1 milijon GPU-jev NVIDIA (arhitekturi Blackwell, Rubin) v regijah AWS.Ogromna računska razširljivost za vse delovne obremenitve AI/ML, agentno UI.Od leta 2026
Instance Amazon EC2Podpora za GPU-je NVIDIA RTX PRO 4500 Blackwell Server Edition na EC2.Prva podpora večjega ponudnika oblaka za vsestransko UI, grafiko, analitiko.Kmalu na voljo
Sklepanje LLMNVIDIA NIXL na AWS EFA za pospešeno razdruženo sklepanje LLM prek GPU-jev in Trainiumov.Zmanjšana komunikacijska zakasnitev, maksimirana izkoriščenost GPU-ja za LLM.Napovedano
Zmogljivost Apache Spark3-krat hitrejše delovne obremenitve Spark na Amazon EMR na EKS z instancami G7e (RTX PRO 6000).Pospešen čas do vpogleda za analizo podatkov, inženiring funkcij.Napovedano
Natančno uglaševanje NemotronaOjačitveno natančno uglaševanje (RFT) za modele Nemotron neposredno na Amazon Bedrock.Usklajevanje vedenja modela s specifičnimi domenami brez infrastrukturnih stroškov.Kmalu na voljo
Nemotron 3 SuperHibridni model MoE za delovne obremenitve z več agenti in razširjeno sklepanje na Amazon Bedrock.Hitro, stroškovno učinkovito sklepanje za kompleksne, večstopenjske naloge UI.Kmalu na voljo

Zaveza energetski učinkovitosti in trajnostni UI

Ker se delovne obremenitve UI še naprej eksponentno povečujejo, postajata učinkovitost in trajnost osnovne infrastrukture izjemnega pomena. Sodelovanje poudarja tudi skupno zavezo izboljšanju energetske učinkovitosti. Zmogljivost na vat ni več zgolj merilo trajnosti, temveč pomembna konkurenčna prednost v pokrajini UI.

Na NVIDIA GTC 2026 se je Amazonova CSO Kara Hurst pridružila drugim vodilnim strokovnjakom za trajnost, da bi razpravljali o tem, kako UI temeljito preoblikuje podjetniško energijo in infrastrukturo v velikem obsegu. Ta razprava poudarja osredotočenost na razvoj in uvajanje rešitev UI, ki niso le zmogljive, temveč tudi okoljsko odgovorne, od podatkovnih centrov, optimiziranih kot aktivni udeleženci omrežja, do širših podjetniških aplikacij UI. Ta napreden pristop zagotavlja, da so napredki v računalništvu UI usklajeni z globalnimi cilji trajnosti.

Pogosta vprašanja

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Bodite na tekočem

Prejemajte najnovejše AI novice po e-pošti.

Deli