Code Velocity
Vállalati AI

AWS és az NVIDIA elmélyíti az AI együttműködést a termelés felgyorsítására

·5 perc olvasás·AWS, NVIDIA·Eredeti forrás
Megosztás
Az AWS és az NVIDIA logói hangsúlyosan láthatók, szimbolizálva kibővített stratégiai együttműködésüket az AI gyorsítása és innovációja terén.

Az AWS és az NVIDIA elmélyíti az AI együttműködést, hogy felgyorsítsa az AI-t a pilot fázistól a termelésig

Az AI példátlan ütemben alakítja át az iparágakat, de valódi értéke nem csupán a kísérletezésben rejlik, hanem az AI-megoldások sikeres telepítésében és működtetésében a termelési környezetekben. Ez robusztus, skálázható, biztonságos és szabályozásnak megfelelő rendszereket igényel, amelyek kézzelfogható üzleti eredményeket hoznak. Ezen kritikus igényre válaszul az AWS és az NVIDIA bejelentette stratégiai együttműködésük jelentős bővítését az NVIDIA GTC 2026 rendezvényen, új technológiai integrációkat mutatva be, amelyek célja az AI számítási igényének növekedésének kielégítése és az AI-megoldások valós termelésbe való átvitele.

Az elmélyített partnerség az AI életciklusának minden aspektusának felgyorsítására összpontosít, az infrastruktúrától a modelltelepítésig. Ezek az integrációk kulcsfontosságú területeket ölelnek fel, beleértve a gyorsított számítástechnikát, a fejlett összekapcsolási technológiákat, valamint a modell finomhangolás és következtetés egyszerűsítését. A legfontosabb bejelentések a következők:

  • Több mint 1 millió NVIDIA GPU telepítése az AWS régiókban 2026-tól kezdődően.
  • Amazon EC2 támogatás az NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-khoz, amivel az AWS az első jelentős felhőszolgáltató, amely ezt kínálja.
  • Összekapcsolási gyorsítás a szétválasztott nagyméretű nyelvi modell (LLM) következtetéséhez az NVIDIA NIXL kihasználásával az AWS Elastic Fabric Adapter (EFA) rendszeren.
  • Drasztikusan 3-szor gyorsabb teljesítmény az Apache Spark munkaterhelésekhez az Amazon EMR az Amazon Elastic Kubernetes Service (Amazon EKS) rendszeren, Amazon EC2 G7e példányokkal, melyeket NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-k hajtanak meg.
  • Bővített NVIDIA Nemotron modell támogatás az Amazon Bedrockon, beleértve a Reinforcement Fine-Tuning-ot és a Nemotron 3 Super modellt.

AI infrastruktúra skálázása továbbfejlesztett NVIDIA GPU teljesítménnyel

A modern AI alapja az erőteljes számítási infrastruktúra. 2026-tól kezdődően az AWS monumentális elkötelezettséget vállal az AI fejlesztése iránt, több mint 1 millió NVIDIA GPU-t adva hozzá globális felhőrégióihoz. Ez magában foglalja a következő generációs Blackwell és Rubin GPU architektúrákat, biztosítva, hogy az ügyfelek hozzáférjenek a legfejlettebb elérhető hardverhez. Az AWS már most is az iparág legszélesebb NVIDIA GPU-alapú példánygyűjteményével büszkélkedhet, számos AI/ML munkaterhelést kiszolgálva, és ez a bővítés tovább erősíti vezető szerepét.

Ez a több mint 15 éve tartó partnerség kiterjed olyan kulcsfontosságú infrastruktúra-területekre is, mint a Spectrum hálózatépítés. A cél, hogy a vállalatoknak, startupoknak és kutatóknak robusztus infrastruktúrát biztosítsanak a fejlett autonóm AI rendszerek építéséhez és skálázásához – olyan AI, amely képes autonóm érvelésre, tervezésre és cselekvésre komplex munkafolyamatok során.

Új Amazon EC2 példányok és összekapcsolási innovációk bemutatása

Az együttműködés egyik fénypontja a közelgő Amazon EC2 példányok, amelyeket az NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-k gyorsítanak. Az AWS büszke arra, hogy az első jelentős felhőszolgáltató, amely bejelenti ezen nagy teljesítményű GPU-k támogatását, széles körű, igényes feladatokhoz téve azokat elérhetővé. Ezek a példányok ideálisan alkalmasak adatelemzésre, kifinomult beszélgetési AI-ra, dinamikus tartalomgenerálásra, fejlett ajánlórendszerekre, kiváló minőségű videó streamingre és komplex grafikai munkaterhelésekre.

Ezek az új EC2 példányok a robusztus AWS Nitro System alapjaira épülnek. A Nitro System a dedikált hardver és a könnyű hipervizor egyedi kombinációjával a gazdagép hardverének szinte összes számítási és memóriaforsrását közvetlenül a példányokhoz juttatja. Ez a kialakítás kiváló erőforrás-kihasználást és teljesítményt biztosít. Kiemelten fontos, hogy a Nitro System speciális hardvere, szoftvere és firmware-je szigorú korlátozások érvényesítésére készült, védve az érzékeny AI munkaterheléseket és adatokat az illetéktelen hozzáféréstől, még az AWS-en belülről is. Az a képessége, hogy működés közben is el tud végezni firmware frissítéseket és optimalizálásokat, tovább növeli a gyártási szintű AI, analitikai és grafikai munkaterhelésekhez elengedhetetlen biztonságot és stabilitást.

A teljesítmény további javítását, különösen a nagyméretű AI-modellek esetében, a szétválasztott LLM következtetés összekapcsolásainak gyorsítása jelenti. Ahogy a modellméretek tovább nőnek, a GPU-k vagy AWS Trainium példányok közötti kommunikációs többlet jelentős szűk keresztmetszetté válhat. Az AWS bejelentette az NVIDIA Inference Xfer Library (NIXL) támogatását az AWS Elastic Fabric Adapter (EFA) rendszerrel, amelyet a szétválasztott LLM következtetés felgyorsítására terveztek az Amazon EC2-n, mind az NVIDIA GPU-kat, mind az AWS Trainium-ot átfogva. Ez az integráció létfontosságú a modern AI munkaterhelések skálázásához, lehetővé téve a kommunikáció és a számítás hatékony átfedését, minimalizálva a késleltetést és maximalizálva a GPU kihasználtságot. Elősegíti a nagy átviteli sebességű, alacsony késleltetésű KV-gyorsítótár adatmozgatását a számítási csomópontok és a elosztott memóriaforrások között. Az NIXL az EFA-val natívan integrálódik olyan népszerű nyílt forráskódú keretrendszerekkel, mint az NVIDIA Dynamo, a vLLM és az SGLang, jobb inter-token késleltetést és hatékonyabb KV-gyorsítótár memória-kihasználtságot biztosítva.

Adatelemzés gyorsítása Amazon EMR-rel és GPU-kkal

Az adatmérnökök és tudósok gyakran küszködnek a hosszú adatfeldolgozási folyamatokkal, amelyek jelentősen gátolhatják az AI/ML modell iterációját és az üzleti intelligencia generálását. Az AWS és az NVIDIA együttműködése úttörő javulást hoz: 3-szor gyorsabb teljesítményt az Apache Spark munkaterhelésekhez. Ezt a gyorsítást az Amazon EMR az Amazon EKS-en való használatával, G7e példányokkal, amelyeket az NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-k hajtanak meg, érik el.

Ez a jelentős teljesítménynövekedés a GPU-gyorsított analitikák optimalizálására összpontosító közös mérnöki erőfeszítések közvetlen eredménye. Az Amazon EMR és G7e példányokkal a szervezetek drámaian csökkenthetik az AI/ML jellemzőgyártáshoz, komplex ETL transzformációkhoz és valós idejű analitikákhoz szükséges időt nagyméretű skálán. A nagyszabású adatfeldolgozási folyamatokat futtató ügyfelek gyorsabban juthatnak betekintéshez, miközben teljes mértékben kompatibilisek maradnak meglévő Spark alkalmazásaikkal.

Bővített NVIDIA Nemotron modell támogatás az Amazon Bedrockon

Az AWS és az NVIDIA emellett bővíti együttműködését az alapmodellek terén, fejlett NVIDIA Nemotron modelleket hozva az Amazon Bedrockra.

A fejlesztők hamarosan képesek lesznek az NVIDIA Nemotron modellek finomhangolására közvetlenül az Amazon Bedrockon, Reinforcement Fine-Tuning (RFT) segítségével. Ez egy játékváltó lehetőség azoknak a csapatoknak, amelyeknek a modell viselkedését specifikus területekhez kell igazítaniuk, legyen szó jogról, egészségügyről, pénzügyről vagy más speciális területekről. Az RFT lehetővé teszi a felhasználók számára, hogy alakítsák, hogyan érvel és reagál egy modell, túllépve a puszta tudás megszerzésén a árnyalt viselkedési összehangolás felé. Fontos, hogy ez natívan fut az Amazon Bedrockon, kiküszöbölve az infrastruktúra többletet – a felhasználók határozzák meg a feladatot, visszajelzést adnak, és a Bedrock kezeli a többit.

Továbbá, az NVIDIA Nemotron 3 Super, egy hibrid Mixture-of-Experts (MoE) modell, amelyet többügynökös munkaterhelésekhez és kiterjesztett érveléshez építettek, szintén hamarosan érkezik az Amazon Bedrockra. Az AI ügynökök pontosságának megőrzésére tervezték komplex, többlépéses munkafolyamatok során, a Nemotron 3 Super számos felhasználási esetet fog táplálni, beleértve a pénzügyet, a kiberbiztonságot, a kiskereskedelmet és a szoftverfejlesztést. Gyors, költséghatékony következtetést ígér egy teljesen menedzselt API-n keresztül, leegyszerűsítve a kifinomult AI ügynökök telepítését.

Íme a főbb bejelentések összefoglalása:

Feature/IntegrationLeírásElsődleges előnyAvailability
GPU DeploymentTöbb mint 1 millió NVIDIA GPU (Blackwell, Rubin architektúrák) az AWS régiókban.Hatalmas számítási skála minden AI/ML munkaterheléshez, autonóm AI-hoz.Starting 2026
Amazon EC2 InstancesNVIDIA RTX PRO 4500 Blackwell Server Edition GPU-k támogatása EC2-n.Első jelentős felhőszolgáltatói támogatás sokoldalú AI-hoz, grafikához, analitikához.Coming soon
LLM InferenceNVIDIA NIXL az AWS EFA-n a gyorsított, szétválasztott LLM következtetéshez GPU-kon és Trainium-okon.Minimalizált kommunikációs késleltetés, maximalizált GPU kihasználtság LLM-ekhez.Announced
Apache Spark Performance3-szor gyorsabb Spark munkaterhelések az Amazon EMR-en az EKS-en G7e példányokkal (RTX PRO 6000).Gyorsított betekintési idő az adatelemzéshez, jellemzőgyártáshoz.Announced
Nemotron Fine-TuningReinforcement Fine-Tuning (RFT) Nemotron modellekhez közvetlenül az Amazon Bedrockon.Domain-specifikus modell viselkedési összehangolás infrastruktúra-többlet nélkül.Coming soon
Nemotron 3 SuperHibrid MoE modell többügynökös munkaterhelésekhez és kiterjesztett érveléshez az Amazon Bedrockon.Gyors, költséghatékony következtetés komplex, többlépéses AI feladatokhoz.Coming soon

Elkötelezettség az energiahatékonyság és a fenntartható AI iránt

Ahogy az AI munkaterhelések exponenciálisan növekednek, az alapul szolgáló infrastruktúra hatékonysága és fenntarthatósága kulcsfontosságúvá válik. Az együttműködés az energiahatékonyság javítása iránti közös elkötelezettséget is hangsúlyozza. A watt/teljesítmény már nem csupán fenntarthatósági mutató, hanem jelentős versenyelőny az AI-piacon.

Az NVIDIA GTC 2026 rendezvényen az Amazon CSO-ja, Kara Hurst más fenntarthatósági vezetőkkel együtt tárgyalta, hogyan alakítja át alapvetően az AI a vállalati energiát és infrastruktúrát nagyméretű skálán. Ez a megbeszélés aláhúzza azt a hangsúlyt, hogy olyan AI-megoldásokat fejlesszenek és telepítsenek, amelyek nemcsak erőteljesek, hanem környezetileg felelősek is, az aktív hálózati résztvevőként optimalizált adatközpontoktól a szélesebb körű vállalati AI alkalmazásokig. Ez az előrelátó megközelítés biztosítja, hogy az AI számítástechnika fejlődése összhangban legyen a globális fenntarthatósági célokkal.

Gyakran ismételt kérdések

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás