AWS, NVIDIA padziļina MI sadarbību ražošanas paātrināšanai no pilotprojekta līdz ražošanai
MI maina nozares nepieredzētā ātrumā, taču patiesā vērtība slēpjas ne tikai eksperimentēšanā, bet arī veiksmīgā MI risinājumu ieviešanā un darbināšanā ražošanas vidēs. Tam nepieciešamas stabilas, mērogojamas, drošas un atbilstošas sistēmas, kas nodrošina taustāmus biznesa rezultātus. Lai risinātu šo kritisko vajadzību, AWS un NVIDIA GTC 2026 paziņoja par būtisku stratēģiskās sadarbības paplašināšanu, atklājot jaunas tehnoloģiju integrācijas, kas paredzētas, lai apmierinātu pieaugošo MI skaitļošanas pieprasījumu un virzītu MI risinājumus reālajā ražošanā.
Padziļinātā partnerība koncentrējas uz katra MI dzīvescikla posma paātrināšanu, sākot no infrastruktūras līdz modeļu ieviešanai. Šīs integrācijas aptver kritiskās jomas, tostarp paātrinātu skaitļošanu, progresīvas starpsavienojumu tehnoloģijas un vienkāršotu modeļu smalkreglēšanu un inferenci. Galvenie paziņojumi ietver:
- Vairāk nekā 1 miljona NVIDIA GPU izvietošanu AWS reģionos, sākot ar 2026. gadu.
- Amazon EC2 atbalstu NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, padarot AWS par pirmo lielo mākoņpakalpojumu sniedzēju, kas to piedāvā.
- Starpsavienojumu paātrināšanu sadalītai Lielo valodu modeļu (LLM) inferencei, izmantojot NVIDIA NIXL uz AWS Elastic Fabric Adapter (EFA).
- Ievērojami 3 reizes ātrāku veiktspēju Apache Spark darba slodzēm, izmantojot Amazon EMR on Amazon Elastic Kubernetes Service (Amazon EKS) ar Amazon EC2 G7e instancēm, ko darbina NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
- Paplašinātu NVIDIA Nemotron modeļu atbalstu Amazon Bedrock, tostarp pastiprinājuma smalkreglēšanu un Nemotron 3 Super modeli.
MI infrastruktūras mērogošana ar uzlabotu NVIDIA GPU jaudu
Modernās MI pamats ir jaudīga skaitļošanas infrastruktūra. Sākot ar 2026. gadu, AWS uzņemas milzīgas saistības ar MI attīstību, pievienojot vairāk nekā 1 miljonu NVIDIA GPU saviem globālajiem mākoņu reģioniem. Tas ietver nākamās paaudzes Blackwell un Rubin GPU arhitektūras, nodrošinot, ka klientiem ir pieejama vismodernākā pieejamā aparatūra. AWS jau lepojas ar nozarē plašāko NVIDIA GPU bāzēto instanču kolekciju, kas paredzēta dažādām MI/ML darba slodzēm, un šī paplašināšana vēl vairāk nostiprina tās vadošo pozīciju.
Šī ilgtermiņa partnerība, kas ilgst vairāk nekā 15 gadus, attiecas arī uz kritiskām infrastruktūras jomām, piemēram, Spectrum tīklošanu. Mērķis ir nodrošināt uzņēmumiem, jaunuzņēmumiem un pētniekiem robustu infrastruktūru, kas nepieciešama, lai veidotu un mērogotu progresīvas aģentu MI sistēmas – MI, kas spēj autonomi spriest, plānot un rīkoties sarežģītos darba procesos.
Jaunu Amazon EC2 instanču un starpsavienojumu inovāciju ieviešana
Sadarbības izcilākais moments ir gaidāmās Amazon EC2 instances, ko paātrina NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS lepojas, ka ir pirmais lielākais mākoņpakalpojumu sniedzējs, kas paziņo par atbalstu šiem jaudīgajiem GPU, padarot tos pieejamus plašam prasīgu uzdevumu klāstam. Šīs instances ir ideāli piemērotas datu analīzei, sarežģītai sarunu MI, dinamiskai satura ģenerēšanai, progresīvām ieteikumu sistēmām, augstas kvalitātes video straumēšanai un sarežģītām grafikas darba slodzēm.
Šīs jaunās EC2 instances tiks veidotas uz stabilās AWS Nitro System. Nitro System ar tās unikālo veltītās aparatūras un vieglā hipervizora kombināciju nodrošina gandrīz visus resursdatora aparatūras skaitļošanas un atmiņas resursus tieši instancēm. Šis dizains nodrošina izcilu resursu izmantošanu un veiktspēju. Kritiski svarīgi, ka Nitro System specializētā aparatūra, programmatūra un programmaparatūra ir izstrādāta, lai ieviestu stingrus ierobežojumus, aizsargājot sensitīvas MI darba slodzes un datus no nesankcionētas piekļuves pat no AWS iekšienes. Tās spēja veikt programmaparatūras atjauninājumus un optimizācijas darbības laikā vēl vairāk uzlabo drošību un stabilitāti, kas ir būtiska ražošanas līmeņa MI, analīzes un grafikas darba slodzēm.
Veiktspēju, īpaši masīvu MI modeļu gadījumā, vēl vairāk uzlabo starpsavienojumu paātrināšana sadalītai LLM inferencei. Modeļu izmēriem turpinot pieaugt, komunikācijas pieskaitāmās izmaksas starp GPU vai AWS Trainium instancēm var kļūt par būtisku šķērsli. AWS paziņoja par atbalstu NVIDIA Inference Xfer Library (NIXL) ar AWS Elastic Fabric Adapter (EFA), kas paredzēta, lai paātrinātu sadalīto LLM inferenci Amazon EC2, aptverot gan NVIDIA GPU, gan AWS Trainium. Šī integrācija ir būtiska mūsdienu MI darba slodžu mērogošanai, nodrošinot efektīvu komunikācijas un skaitļošanas pārklāšanos, minimizējot latentumu un maksimāli palielinot GPU izmantošanu. Tā veicina augstas caurlaidības, zema latentuma KV-kešatmiņas datu pārvietošanu starp skaitļošanas mezgliem un izkliedētiem atmiņas resursiem. NIXL ar EFA integrējas ar populārām atvērtā koda ietvariem, piemēram, NVIDIA Dynamo, vLLM un SGLang, nodrošinot uzlabotu starpžetonu latentumu un efektīvāku KV-kešatmiņas atmiņas izmantošanu.
Datu analīzes paātrināšana ar Amazon EMR un GPU
Datu inženieri un zinātnieki bieži saskaras ar ilgstošām datu apstrādes konveijeriem, kas var ievērojami kavēt MI/ML modeļu iterāciju un biznesa inteliģences ģenerēšanu. AWS un NVIDIA sadarbība nodrošina revolucionāru uzlabojumu: 3 reizes ātrāku veiktspēju Apache Spark darba slodzēm. Šis paātrinājums tiek panākts, izmantojot Amazon EMR on Amazon EKS ar G7e instancēm, ko darbina NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
Šis būtiskais veiktspējas pieaugums ir tiešs kopīgu inženierijas pūļu rezultāts, kas koncentrējas uz GPU paātrinātas analīzes optimizēšanu. Ar Amazon EMR un G7e instancēm organizācijas var ievērojami samazināt laiku, kas nepieciešams MI/ML funkciju inženierijai, sarežģītām ETL transformācijām un reāllaika analīzei lielā mērogā. Klienti, kas veic liela mēroga datu apstrādes konveijerus, var sasniegt ātrāku laiku līdz ieskatam, saglabājot pilnīgu saderību ar savām esošajām Spark lietojumprogrammām.
Paplašināts NVIDIA Nemotron modeļu atbalsts Amazon Bedrock
AWS un NVIDIA paplašina sadarbību arī pamatmodeļu jomā, ieviešot progresīvus NVIDIA Nemotron modeļus Amazon Bedrock.
Izstrādātāji drīzumā varēs smalkreglēt NVIDIA Nemotron modeļus tieši Amazon Bedrock, izmantojot pastiprinājuma smalkreglēšanu (RFT). Tas ir būtisks pavērsiens komandām, kurām jāpielāgo modeļa uzvedība konkrētām jomām, vai tas būtu tiesību, veselības aprūpes, finanšu vai citās specializētās jomās. RFT dod lietotājiem iespēju veidot modeļa spriešanu un atbildes, pārejot no tikai zināšanu iegūšanas uz niansētu uzvedības saskaņošanu. Kritiski svarīgi, ka tas darbojas Amazon Bedrock, novēršot infrastruktūras papildu izmaksas – lietotāji definē uzdevumu, sniedz atsauksmes, un Bedrock pārvalda pārējo.
Turklāt NVIDIA Nemotron 3 Super, hibrīds Mixture-of-Experts (MoE) modelis, kas veidots daudzaģentu darba slodzēm un paplašinātai spriešanai, drīzumā būs pieejams arī Amazon Bedrock. Izstrādāts, lai palīdzētu MI aģentiem saglabāt precizitāti sarežģītos, daudzpakāpju darba procesos, Nemotron 3 Super darbinās dažādus lietošanas gadījumus finanšu, kiberdrošības, mazumtirdzniecības un programmatūras izstrādes jomās. Tas sola ātru, rentablu inferenci, izmantojot pilnībā pārvaldītu API, vienkāršojot sarežģītu MI aģentu ieviešanu.
Šeit ir galveno paziņojumu kopsavilkums:
| Funkcija/Integrācija | Apraksts | Galvenais ieguvums | Pieejamība |
|---|---|---|---|
| GPU izvietošana | Vairāk nekā 1 miljons NVIDIA GPU (Blackwell, Rubin arhitektūras) visos AWS reģionos. | Milzīga skaitļošanas jauda visām MI/ML darba slodzēm, aģentu MI. | Sākot ar 2026. gadu |
| Amazon EC2 instances | Atbalsts NVIDIA RTX PRO 4500 Blackwell Server Edition GPU EC2 instancēm. | Pirmais lielākais mākoņpakalpojumu sniedzēja atbalsts daudzpusīgai MI, grafikai, analīzei. | Drīzumā |
| LLM inference | NVIDIA NIXL uz AWS EFA paātrinātai sadalītai LLM inferencei visos GPU un Trainium. | Minimizēts komunikācijas latentums, maksimāla GPU izmantošana LLM. | Paziņots |
| Apache Spark veiktspēja | 3x ātrākas Spark darba slodzes Amazon EMR on EKS ar G7e instancēm (RTX PRO 6000). | Paātrināts laiks līdz ieskatam datu analīzei, funkciju inženierijai. | Paziņots |
| Nemotron smalkreglēšana | Pastiprinājuma smalkreglēšana (RFT) Nemotron modeļiem tieši Amazon Bedrock. | Konkrētai domēnai atbilstoša modeļa uzvedības saskaņošana bez infrastruktūras papildu izmaksām. | Drīzumā |
| Nemotron 3 Super | Hibrīds MoE modelis daudzaģentu darba slodzēm un paplašinātai spriešanai Amazon Bedrock. | Ātra, rentabla inference sarežģītiem, daudzpakāpju MI uzdevumiem. | Drīzumā |
Apņemšanās nodrošināt energoefektivitāti un ilgtspējīgu MI
MI darba slodzēm turpinot eksponenciāli pieaugt, pamatinfrastruktūras efektivitāte un ilgtspējība kļūst ārkārtīgi svarīga. Sadarbība arī uzsver kopīgu apņemšanos uzlabot energoefektivitāti. Veiktspēja uz vatu vairs nav tikai ilgtspējības metrika, bet gan būtiska konkurences priekšrocība MI ainavā.
NVIDIA GTC 2026 pasākumā Amazon CSO Kara Hurst pievienojās citiem ilgtspējības līderiem, lai apspriestu, kā MI fundamentāli pārveido uzņēmuma enerģētiku un infrastruktūru lielā mērogā. Šī diskusija uzsver fokusu uz tādu MI risinājumu izstrādi un ieviešanu, kas ir ne tikai jaudīgi, bet arī videi atbildīgi, sākot no datu centriem, kas optimizēti kā aktīvi tīkla dalībnieki, līdz plašākām uzņēmuma MI lietojumprogrammām. Šī tālredzīgā pieeja nodrošina, ka MI skaitļošanas sasniegumi ir saskaņoti ar globālajiem ilgtspējības mērķiem.
Sākotnējais avots
https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/Bieži uzdotie jautājumi
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Esiet informēti
Saņemiet jaunākās AI ziņas savā e-pastā.
