Code Velocity
Uzņēmumu MI

AWS, NVIDIA padziļina MI sadarbību ražošanas paātrināšanai

·5 min lasīšana·AWS, NVIDIA·Sākotnējais avots
Dalīties
AWS un NVIDIA logotipi ir izteikti attēloti, simbolizējot to paplašināto stratēģisko sadarbību MI paātrināšanā un inovācijās.

AWS, NVIDIA padziļina MI sadarbību ražošanas paātrināšanai no pilotprojekta līdz ražošanai

MI maina nozares nepieredzētā ātrumā, taču patiesā vērtība slēpjas ne tikai eksperimentēšanā, bet arī veiksmīgā MI risinājumu ieviešanā un darbināšanā ražošanas vidēs. Tam nepieciešamas stabilas, mērogojamas, drošas un atbilstošas sistēmas, kas nodrošina taustāmus biznesa rezultātus. Lai risinātu šo kritisko vajadzību, AWS un NVIDIA GTC 2026 paziņoja par būtisku stratēģiskās sadarbības paplašināšanu, atklājot jaunas tehnoloģiju integrācijas, kas paredzētas, lai apmierinātu pieaugošo MI skaitļošanas pieprasījumu un virzītu MI risinājumus reālajā ražošanā.

Padziļinātā partnerība koncentrējas uz katra MI dzīvescikla posma paātrināšanu, sākot no infrastruktūras līdz modeļu ieviešanai. Šīs integrācijas aptver kritiskās jomas, tostarp paātrinātu skaitļošanu, progresīvas starpsavienojumu tehnoloģijas un vienkāršotu modeļu smalkreglēšanu un inferenci. Galvenie paziņojumi ietver:

  • Vairāk nekā 1 miljona NVIDIA GPU izvietošanu AWS reģionos, sākot ar 2026. gadu.
  • Amazon EC2 atbalstu NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, padarot AWS par pirmo lielo mākoņpakalpojumu sniedzēju, kas to piedāvā.
  • Starpsavienojumu paātrināšanu sadalītai Lielo valodu modeļu (LLM) inferencei, izmantojot NVIDIA NIXL uz AWS Elastic Fabric Adapter (EFA).
  • Ievērojami 3 reizes ātrāku veiktspēju Apache Spark darba slodzēm, izmantojot Amazon EMR on Amazon Elastic Kubernetes Service (Amazon EKS) ar Amazon EC2 G7e instancēm, ko darbina NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
  • Paplašinātu NVIDIA Nemotron modeļu atbalstu Amazon Bedrock, tostarp pastiprinājuma smalkreglēšanu un Nemotron 3 Super modeli.

MI infrastruktūras mērogošana ar uzlabotu NVIDIA GPU jaudu

Modernās MI pamats ir jaudīga skaitļošanas infrastruktūra. Sākot ar 2026. gadu, AWS uzņemas milzīgas saistības ar MI attīstību, pievienojot vairāk nekā 1 miljonu NVIDIA GPU saviem globālajiem mākoņu reģioniem. Tas ietver nākamās paaudzes Blackwell un Rubin GPU arhitektūras, nodrošinot, ka klientiem ir pieejama vismodernākā pieejamā aparatūra. AWS jau lepojas ar nozarē plašāko NVIDIA GPU bāzēto instanču kolekciju, kas paredzēta dažādām MI/ML darba slodzēm, un šī paplašināšana vēl vairāk nostiprina tās vadošo pozīciju.

Šī ilgtermiņa partnerība, kas ilgst vairāk nekā 15 gadus, attiecas arī uz kritiskām infrastruktūras jomām, piemēram, Spectrum tīklošanu. Mērķis ir nodrošināt uzņēmumiem, jaunuzņēmumiem un pētniekiem robustu infrastruktūru, kas nepieciešama, lai veidotu un mērogotu progresīvas aģentu MI sistēmas – MI, kas spēj autonomi spriest, plānot un rīkoties sarežģītos darba procesos.

Jaunu Amazon EC2 instanču un starpsavienojumu inovāciju ieviešana

Sadarbības izcilākais moments ir gaidāmās Amazon EC2 instances, ko paātrina NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS lepojas, ka ir pirmais lielākais mākoņpakalpojumu sniedzējs, kas paziņo par atbalstu šiem jaudīgajiem GPU, padarot tos pieejamus plašam prasīgu uzdevumu klāstam. Šīs instances ir ideāli piemērotas datu analīzei, sarežģītai sarunu MI, dinamiskai satura ģenerēšanai, progresīvām ieteikumu sistēmām, augstas kvalitātes video straumēšanai un sarežģītām grafikas darba slodzēm.

Šīs jaunās EC2 instances tiks veidotas uz stabilās AWS Nitro System. Nitro System ar tās unikālo veltītās aparatūras un vieglā hipervizora kombināciju nodrošina gandrīz visus resursdatora aparatūras skaitļošanas un atmiņas resursus tieši instancēm. Šis dizains nodrošina izcilu resursu izmantošanu un veiktspēju. Kritiski svarīgi, ka Nitro System specializētā aparatūra, programmatūra un programmaparatūra ir izstrādāta, lai ieviestu stingrus ierobežojumus, aizsargājot sensitīvas MI darba slodzes un datus no nesankcionētas piekļuves pat no AWS iekšienes. Tās spēja veikt programmaparatūras atjauninājumus un optimizācijas darbības laikā vēl vairāk uzlabo drošību un stabilitāti, kas ir būtiska ražošanas līmeņa MI, analīzes un grafikas darba slodzēm.

Veiktspēju, īpaši masīvu MI modeļu gadījumā, vēl vairāk uzlabo starpsavienojumu paātrināšana sadalītai LLM inferencei. Modeļu izmēriem turpinot pieaugt, komunikācijas pieskaitāmās izmaksas starp GPU vai AWS Trainium instancēm var kļūt par būtisku šķērsli. AWS paziņoja par atbalstu NVIDIA Inference Xfer Library (NIXL) ar AWS Elastic Fabric Adapter (EFA), kas paredzēta, lai paātrinātu sadalīto LLM inferenci Amazon EC2, aptverot gan NVIDIA GPU, gan AWS Trainium. Šī integrācija ir būtiska mūsdienu MI darba slodžu mērogošanai, nodrošinot efektīvu komunikācijas un skaitļošanas pārklāšanos, minimizējot latentumu un maksimāli palielinot GPU izmantošanu. Tā veicina augstas caurlaidības, zema latentuma KV-kešatmiņas datu pārvietošanu starp skaitļošanas mezgliem un izkliedētiem atmiņas resursiem. NIXL ar EFA integrējas ar populārām atvērtā koda ietvariem, piemēram, NVIDIA Dynamo, vLLM un SGLang, nodrošinot uzlabotu starpžetonu latentumu un efektīvāku KV-kešatmiņas atmiņas izmantošanu.

Datu analīzes paātrināšana ar Amazon EMR un GPU

Datu inženieri un zinātnieki bieži saskaras ar ilgstošām datu apstrādes konveijeriem, kas var ievērojami kavēt MI/ML modeļu iterāciju un biznesa inteliģences ģenerēšanu. AWS un NVIDIA sadarbība nodrošina revolucionāru uzlabojumu: 3 reizes ātrāku veiktspēju Apache Spark darba slodzēm. Šis paātrinājums tiek panākts, izmantojot Amazon EMR on Amazon EKS ar G7e instancēm, ko darbina NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.

Šis būtiskais veiktspējas pieaugums ir tiešs kopīgu inženierijas pūļu rezultāts, kas koncentrējas uz GPU paātrinātas analīzes optimizēšanu. Ar Amazon EMR un G7e instancēm organizācijas var ievērojami samazināt laiku, kas nepieciešams MI/ML funkciju inženierijai, sarežģītām ETL transformācijām un reāllaika analīzei lielā mērogā. Klienti, kas veic liela mēroga datu apstrādes konveijerus, var sasniegt ātrāku laiku līdz ieskatam, saglabājot pilnīgu saderību ar savām esošajām Spark lietojumprogrammām.

Paplašināts NVIDIA Nemotron modeļu atbalsts Amazon Bedrock

AWS un NVIDIA paplašina sadarbību arī pamatmodeļu jomā, ieviešot progresīvus NVIDIA Nemotron modeļus Amazon Bedrock.

Izstrādātāji drīzumā varēs smalkreglēt NVIDIA Nemotron modeļus tieši Amazon Bedrock, izmantojot pastiprinājuma smalkreglēšanu (RFT). Tas ir būtisks pavērsiens komandām, kurām jāpielāgo modeļa uzvedība konkrētām jomām, vai tas būtu tiesību, veselības aprūpes, finanšu vai citās specializētās jomās. RFT dod lietotājiem iespēju veidot modeļa spriešanu un atbildes, pārejot no tikai zināšanu iegūšanas uz niansētu uzvedības saskaņošanu. Kritiski svarīgi, ka tas darbojas Amazon Bedrock, novēršot infrastruktūras papildu izmaksas – lietotāji definē uzdevumu, sniedz atsauksmes, un Bedrock pārvalda pārējo.

Turklāt NVIDIA Nemotron 3 Super, hibrīds Mixture-of-Experts (MoE) modelis, kas veidots daudzaģentu darba slodzēm un paplašinātai spriešanai, drīzumā būs pieejams arī Amazon Bedrock. Izstrādāts, lai palīdzētu MI aģentiem saglabāt precizitāti sarežģītos, daudzpakāpju darba procesos, Nemotron 3 Super darbinās dažādus lietošanas gadījumus finanšu, kiberdrošības, mazumtirdzniecības un programmatūras izstrādes jomās. Tas sola ātru, rentablu inferenci, izmantojot pilnībā pārvaldītu API, vienkāršojot sarežģītu MI aģentu ieviešanu.

Šeit ir galveno paziņojumu kopsavilkums:

Funkcija/IntegrācijaAprakstsGalvenais ieguvumsPieejamība
GPU izvietošanaVairāk nekā 1 miljons NVIDIA GPU (Blackwell, Rubin arhitektūras) visos AWS reģionos.Milzīga skaitļošanas jauda visām MI/ML darba slodzēm, aģentu MI.Sākot ar 2026. gadu
Amazon EC2 instancesAtbalsts NVIDIA RTX PRO 4500 Blackwell Server Edition GPU EC2 instancēm.Pirmais lielākais mākoņpakalpojumu sniedzēja atbalsts daudzpusīgai MI, grafikai, analīzei.Drīzumā
LLM inferenceNVIDIA NIXL uz AWS EFA paātrinātai sadalītai LLM inferencei visos GPU un Trainium.Minimizēts komunikācijas latentums, maksimāla GPU izmantošana LLM.Paziņots
Apache Spark veiktspēja3x ātrākas Spark darba slodzes Amazon EMR on EKS ar G7e instancēm (RTX PRO 6000).Paātrināts laiks līdz ieskatam datu analīzei, funkciju inženierijai.Paziņots
Nemotron smalkreglēšanaPastiprinājuma smalkreglēšana (RFT) Nemotron modeļiem tieši Amazon Bedrock.Konkrētai domēnai atbilstoša modeļa uzvedības saskaņošana bez infrastruktūras papildu izmaksām.Drīzumā
Nemotron 3 SuperHibrīds MoE modelis daudzaģentu darba slodzēm un paplašinātai spriešanai Amazon Bedrock.Ātra, rentabla inference sarežģītiem, daudzpakāpju MI uzdevumiem.Drīzumā

Apņemšanās nodrošināt energoefektivitāti un ilgtspējīgu MI

MI darba slodzēm turpinot eksponenciāli pieaugt, pamatinfrastruktūras efektivitāte un ilgtspējība kļūst ārkārtīgi svarīga. Sadarbība arī uzsver kopīgu apņemšanos uzlabot energoefektivitāti. Veiktspēja uz vatu vairs nav tikai ilgtspējības metrika, bet gan būtiska konkurences priekšrocība MI ainavā.

NVIDIA GTC 2026 pasākumā Amazon CSO Kara Hurst pievienojās citiem ilgtspējības līderiem, lai apspriestu, kā MI fundamentāli pārveido uzņēmuma enerģētiku un infrastruktūru lielā mērogā. Šī diskusija uzsver fokusu uz tādu MI risinājumu izstrādi un ieviešanu, kas ir ne tikai jaudīgi, bet arī videi atbildīgi, sākot no datu centriem, kas optimizēti kā aktīvi tīkla dalībnieki, līdz plašākām uzņēmuma MI lietojumprogrammām. Šī tālredzīgā pieeja nodrošina, ka MI skaitļošanas sasniegumi ir saskaņoti ar globālajiem ilgtspējības mērķiem.

Bieži uzdotie jautājumi

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties