AWS og NVIDIA udvider AI-samarbejdet for at accelerere produktionen fra pilot til produktion
AI transformerer industrier i et hidtil uset tempo, men den sande værdi ligger ikke kun i eksperimenter, men i succesfuld udrulning og drift af AI-løsninger i produktionsmiljøer. Dette kræver robuste, skalerbare, sikre og kompatible systemer, der leverer målbare forretningsresultater. For at imødekomme dette kritiske behov annoncerede AWS og NVIDIA en betydelig udvidelse af deres strategiske samarbejde på NVIDIA GTC 2026, hvor de afslørede nye teknologiintegrationer designet til at imødekomme den eskalerende efterspørgsel efter AI-beregning og drive AI-løsninger ind i den virkelige verdens produktion.
Det udvidede partnerskab fokuserer på at accelerere alle facetter af AI-livscyklussen, fra infrastruktur til modeludrulning. Disse integrationer dækker afgørende områder, herunder accelereret computing, avancerede interkonnekt-teknologier og strømlinet model finjustering og inferens. Nøglemeddelelser inkluderer:
- Udrulning af mere end 1 million NVIDIA GPU'er på tværs af AWS-regioner fra 2026.
- Amazon EC2-understøttelse af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er, hvilket gør AWS til den første store cloud-udbyder, der tilbyder dette.
- Interkonnekt-acceleration for disaggregeret inferens af store sprogmodeller (LLM) ved hjælp af NVIDIA NIXL på AWS Elastic Fabric Adapter (EFA).
- En dramatisk 3x hurtigere ydeevne for Apache Spark-arbejdsbelastninger ved hjælp af Amazon EMR på Amazon Elastic Kubernetes Service (Amazon EKS) med Amazon EC2 G7e-instanser, drevet af NVIDIA RTX PRO 6000 Blackwell Server Edition GPU'er.
- Udvidet NVIDIA Nemotron-modelunderstøttelse på Amazon Bedrock, herunder Reinforcement Fine-Tuning og Nemotron 3 Super-modellen.
Skalering af AI-infrastruktur med forbedret NVIDIA GPU-kraft
Grundlaget for moderne AI ligger i kraftfuld computerinfrastruktur. Fra 2026 forpligter AWS sig monumentalt til AI-fremskridt ved at tilføje over 1 million NVIDIA GPU'er til sine globale cloud-regioner. Dette inkluderer næste generations Blackwell- og Rubin GPU-arkitekturer, der sikrer, at kunder har adgang til den mest avancerede hardware, der findes. AWS kan allerede prale af branchens bredeste samling af NVIDIA GPU-baserede instanser, der imødekommer et bredt udvalg af AI/ML-arbejdsbelastninger, og denne udvidelse cementerer yderligere dets lederskab.
Dette langvarige partnerskab, der strækker sig over 15 år, udvides også til afgørende infrastrukturområder som Spectrum-netværk. Målet er at give virksomheder, startups og forskere den robuste infrastruktur, der kræves for at bygge og skalere avancerede Agentiske AI-systemer—AI, der er i stand til autonom ræsonnement, planlægning og handling på tværs af komplekse arbejdsgange.
Introduktion af nye Amazon EC2-instanser og interkonnekt-innovationer
Et højdepunkt i samarbejdet er de kommende Amazon EC2-instanser accelereret af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er. AWS er stolt over at være den første store cloud-udbyder, der annoncerer understøttelse af disse kraftfulde GPU'er, hvilket gør dem tilgængelige for en bred vifte af krævende opgaver. Disse instanser er ideelt egnet til dataanalyse, sofistikeret konversations-AI, dynamisk indholdsgenerering, avancerede anbefalingssystemer, videostreaming i høj kvalitet og komplekse grafik-arbejdsbelastninger.
Disse nye EC2-instanser vil blive bygget på det robuste AWS Nitro System. Nitro Systemet, med sin unikke kombination af dedikeret hardware og en letvægts-hypervisor, leverer næsten alle værtshardwarens beregnings- og hukommelsesressourcer direkte til instanserne. Dette design sikrer overlegen ressourceudnyttelse og ydeevne. Det er afgørende, at Nitro Systemets specialiserede hardware, software og firmware er konstrueret til at håndhæve strenge begrænsninger, der beskytter følsomme AI-arbejdsbelastninger og data mod uautoriseret adgang, selv indefra AWS. Dets evne til at udføre firmware-opdateringer og optimeringer under drift forbedrer yderligere sikkerheden og stabiliteten, der er essentiel for produktionsklar AI, analyse- og grafik-arbejdsbelastninger.
Yderligere forbedring af ydeevnen, især for massive AI-modeller, er accelerationen af interkonnekter for disaggregeret LLM-inferens. Efterhånden som modelstørrelser fortsætter med at vokse, kan kommunikationsoverhead mellem GPU'er eller AWS Trainium-instanser blive en betydelig flaskehals. AWS annoncerede understøttelse af NVIDIA Inference Xfer Library (NIXL) med AWS Elastic Fabric Adapter (EFA), designet til at accelerere disaggregeret LLM-inferens på Amazon EC2, der spænder over både NVIDIA GPU'er og AWS Trainium. Denne integration er afgørende for skalering af moderne AI-arbejdsbelastninger, hvilket muliggør effektiv overlapning af kommunikation og beregning, minimerer latenstid og maksimerer GPU-udnyttelse. Den muliggør højgennemstrømnings, lavlatenstid KV-cache dataoverførsel mellem beregningsnoder og distribuerede hukommelsesressourcer. NIXL med EFA integreres nativt med populære open source-rammer såsom NVIDIA Dynamo, vLLM og SGLang, hvilket leverer forbedret inter-token latenstid og mere effektiv KV-cache hukommelsesudnyttelse.
Accelerering af dataanalyse med Amazon EMR og GPU'er
Dataingeniører og forskere kæmper ofte med langvarige databehandlingspipelines, der betydeligt kan hæmme AI/ML-model iteration og generering af forretningsindsigt. AWS- og NVIDIA-samarbejdet leverer en banebrydende forbedring: 3x hurtigere ydeevne for Apache Spark-arbejdsbelastninger. Denne acceleration opnås ved at udnytte Amazon EMR på Amazon EKS med G7e-instanser, drevet af NVIDIAs RTX PRO 6000 Blackwell Server Edition GPU'er.
Denne betydelige ydeevneforbedring er et direkte resultat af fælles ingeniørarbejde fokuseret på optimering af GPU-accelereret analyse. Med Amazon EMR og G7e-instanser kan organisationer dramatisk reducere den tid, der er nødvendig for AI/ML-funktionsteknik, komplekse ETL-transformationer og realtidsanalyse i stor skala. Kunder, der kører storskala databehandlingspipelines, kan opnå hurtigere 'time-to-insight' samtidig med at de opretholder fuld kompatibilitet med deres eksisterende Spark-applikationer.
Udvidet NVIDIA Nemotron-modelunderstøttelse på Amazon Bedrock
AWS og NVIDIA udvider også deres samarbejde om fundamentale modeller og bringer avancerede NVIDIA Nemotron-modeller til Amazon Bedrock.
Udviklere vil snart have mulighed for at finjustere NVIDIA Nemotron-modeller direkte på Amazon Bedrock ved hjælp af Reinforcement Fine-Tuning (RFT). Dette er en game-changer for teams, der skal skræddersy modeladfærd til specifikke domæner, uanset om det er inden for jura, sundhedspleje, finans eller andre specialiserede områder. RFT giver brugerne mulighed for at forme, hvordan en model ræsonnerer og reagerer, og bevæger sig ud over blot vidensakkvisition til nuanceret adfærdsmæssig justering. Det er afgørende, at dette kører nativt på Amazon Bedrock, hvilket eliminerer infrastruktur-overhead – brugere definerer opgaven, giver feedback, og Bedrock håndterer resten.
Desuden kommer NVIDIA Nemotron 3 Super, en hybrid Mixture-of-Experts (MoE)-model bygget til multi-agent-arbejdsbelastninger og udvidet ræsonnement, også snart til Amazon Bedrock. Konstrueret til at hjælpe AI-agenter med at opretholde nøjagtighed på tværs af komplekse, flertrins arbejdsgange, vil Nemotron 3 Super drive forskellige anvendelsesscenarier inden for finans, cybersikkerhed, detailhandel og softwareudvikling. Den lover hurtig, omkostningseffektiv inferens via en fuldt administreret API, hvilket forenkler udrulningen af sofistikerede AI-agenter.
Her er en opsummering af de vigtigste meddelelser:
| Funktion/Integration | Beskrivelse | Primær fordel | Tilgængelighed |
|---|---|---|---|
| GPU-udrulning | Over 1 million NVIDIA GPU'er (Blackwell, Rubin-arkitekturer) på tværs af AWS-regioner. | Massiv beregningsskala for alle AI/ML-arbejdsbelastninger, agentisk AI. | Starter 2026 |
| Amazon EC2-instanser | Understøttelse af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er på EC2. | Første store cloud-udbyder med understøttelse af alsidig AI, grafik, analyse. | Kommer snart |
| LLM-inferens | NVIDIA NIXL på AWS EFA for accelereret disaggregeret LLM-inferens på tværs af GPU'er og Trainiums. | Minimeret kommunikationslatenstid, maksimeret GPU-udnyttelse for LLM'er. | Annonceret |
| Apache Spark-ydeevne | 3x hurtigere Spark-arbejdsbelastninger på Amazon EMR på EKS med G7e-instanser (RTX PRO 6000). | Accelereret tid til indsigt for dataanalyse, feature engineering. | Annonceret |
| Nemotron-finjustering | Reinforcement Fine-Tuning (RFT) for Nemotron-modeller direkte på Amazon Bedrock. | Domænespecifik modeladfærdstilpasning uden infrastruktur-overhead. | Kommer snart |
| Nemotron 3 Super | Hybrid MoE-model til multi-agent-arbejdsbelastninger og udvidet ræsonnement på Amazon Bedrock. | Hurtig, omkostningseffektiv inferens til komplekse, flertrins AI-opgaver. | Kommer snart |
Engagement i energieffektivitet og bæredygtig AI
Efterhånden som AI-arbejdsbelastninger fortsætter med at vokse eksponentielt, bliver effektiviteten og bæredygtigheden af den underliggende infrastruktur afgørende. Samarbejdet fremhæver også en fælles forpligtelse til at forbedre energieffektiviteten. Ydeevne per watt er ikke længere kun et bæredygtighedsmål, men en betydelig konkurrencefordel i AI-landskabet.
På NVIDIA GTC 2026 sluttede Amazon CSO Kara Hurst sig til andre bæredygtighedsledere for at diskutere, hvordan AI fundamentalt transformerer virksomhedens energi og infrastruktur i stor skala. Denne diskussion understreger fokus på at udvikle og implementere AI-løsninger, der ikke kun er kraftfulde, men også miljømæssigt ansvarlige, fra datacentre optimeret som aktive netdeltagere til bredere virksomheds-AI-applikationer. Denne fremadrettede tilgang sikrer, at fremskridtene inden for AI-beregning er i overensstemmelse med globale bæredygtighedsmål.
Ofte stillede spørgsmål
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Hold dig opdateret
Få de seneste AI-nyheder i din indbakke.
