Code Velocity
Virksomheds-AI

AWS og NVIDIA udvider AI-samarbejdet for at accelerere produktionen

·5 min læsning·AWS, NVIDIA·Original kilde
Del
AWS- og NVIDIA-logoer tydeligt vist, symboliserende deres udvidede strategiske samarbejde for AI-acceleration og innovation.

AWS og NVIDIA udvider AI-samarbejdet for at accelerere produktionen fra pilot til produktion

AI transformerer industrier i et hidtil uset tempo, men den sande værdi ligger ikke kun i eksperimenter, men i succesfuld udrulning og drift af AI-løsninger i produktionsmiljøer. Dette kræver robuste, skalerbare, sikre og kompatible systemer, der leverer målbare forretningsresultater. For at imødekomme dette kritiske behov annoncerede AWS og NVIDIA en betydelig udvidelse af deres strategiske samarbejde på NVIDIA GTC 2026, hvor de afslørede nye teknologiintegrationer designet til at imødekomme den eskalerende efterspørgsel efter AI-beregning og drive AI-løsninger ind i den virkelige verdens produktion.

Det udvidede partnerskab fokuserer på at accelerere alle facetter af AI-livscyklussen, fra infrastruktur til modeludrulning. Disse integrationer dækker afgørende områder, herunder accelereret computing, avancerede interkonnekt-teknologier og strømlinet model finjustering og inferens. Nøglemeddelelser inkluderer:

  • Udrulning af mere end 1 million NVIDIA GPU'er på tværs af AWS-regioner fra 2026.
  • Amazon EC2-understøttelse af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er, hvilket gør AWS til den første store cloud-udbyder, der tilbyder dette.
  • Interkonnekt-acceleration for disaggregeret inferens af store sprogmodeller (LLM) ved hjælp af NVIDIA NIXL på AWS Elastic Fabric Adapter (EFA).
  • En dramatisk 3x hurtigere ydeevne for Apache Spark-arbejdsbelastninger ved hjælp af Amazon EMR på Amazon Elastic Kubernetes Service (Amazon EKS) med Amazon EC2 G7e-instanser, drevet af NVIDIA RTX PRO 6000 Blackwell Server Edition GPU'er.
  • Udvidet NVIDIA Nemotron-modelunderstøttelse på Amazon Bedrock, herunder Reinforcement Fine-Tuning og Nemotron 3 Super-modellen.

Skalering af AI-infrastruktur med forbedret NVIDIA GPU-kraft

Grundlaget for moderne AI ligger i kraftfuld computerinfrastruktur. Fra 2026 forpligter AWS sig monumentalt til AI-fremskridt ved at tilføje over 1 million NVIDIA GPU'er til sine globale cloud-regioner. Dette inkluderer næste generations Blackwell- og Rubin GPU-arkitekturer, der sikrer, at kunder har adgang til den mest avancerede hardware, der findes. AWS kan allerede prale af branchens bredeste samling af NVIDIA GPU-baserede instanser, der imødekommer et bredt udvalg af AI/ML-arbejdsbelastninger, og denne udvidelse cementerer yderligere dets lederskab.

Dette langvarige partnerskab, der strækker sig over 15 år, udvides også til afgørende infrastrukturområder som Spectrum-netværk. Målet er at give virksomheder, startups og forskere den robuste infrastruktur, der kræves for at bygge og skalere avancerede Agentiske AI-systemer—AI, der er i stand til autonom ræsonnement, planlægning og handling på tværs af komplekse arbejdsgange.

Introduktion af nye Amazon EC2-instanser og interkonnekt-innovationer

Et højdepunkt i samarbejdet er de kommende Amazon EC2-instanser accelereret af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er. AWS er stolt over at være den første store cloud-udbyder, der annoncerer understøttelse af disse kraftfulde GPU'er, hvilket gør dem tilgængelige for en bred vifte af krævende opgaver. Disse instanser er ideelt egnet til dataanalyse, sofistikeret konversations-AI, dynamisk indholdsgenerering, avancerede anbefalingssystemer, videostreaming i høj kvalitet og komplekse grafik-arbejdsbelastninger.

Disse nye EC2-instanser vil blive bygget på det robuste AWS Nitro System. Nitro Systemet, med sin unikke kombination af dedikeret hardware og en letvægts-hypervisor, leverer næsten alle værtshardwarens beregnings- og hukommelsesressourcer direkte til instanserne. Dette design sikrer overlegen ressourceudnyttelse og ydeevne. Det er afgørende, at Nitro Systemets specialiserede hardware, software og firmware er konstrueret til at håndhæve strenge begrænsninger, der beskytter følsomme AI-arbejdsbelastninger og data mod uautoriseret adgang, selv indefra AWS. Dets evne til at udføre firmware-opdateringer og optimeringer under drift forbedrer yderligere sikkerheden og stabiliteten, der er essentiel for produktionsklar AI, analyse- og grafik-arbejdsbelastninger.

Yderligere forbedring af ydeevnen, især for massive AI-modeller, er accelerationen af interkonnekter for disaggregeret LLM-inferens. Efterhånden som modelstørrelser fortsætter med at vokse, kan kommunikationsoverhead mellem GPU'er eller AWS Trainium-instanser blive en betydelig flaskehals. AWS annoncerede understøttelse af NVIDIA Inference Xfer Library (NIXL) med AWS Elastic Fabric Adapter (EFA), designet til at accelerere disaggregeret LLM-inferens på Amazon EC2, der spænder over både NVIDIA GPU'er og AWS Trainium. Denne integration er afgørende for skalering af moderne AI-arbejdsbelastninger, hvilket muliggør effektiv overlapning af kommunikation og beregning, minimerer latenstid og maksimerer GPU-udnyttelse. Den muliggør højgennemstrømnings, lavlatenstid KV-cache dataoverførsel mellem beregningsnoder og distribuerede hukommelsesressourcer. NIXL med EFA integreres nativt med populære open source-rammer såsom NVIDIA Dynamo, vLLM og SGLang, hvilket leverer forbedret inter-token latenstid og mere effektiv KV-cache hukommelsesudnyttelse.

Accelerering af dataanalyse med Amazon EMR og GPU'er

Dataingeniører og forskere kæmper ofte med langvarige databehandlingspipelines, der betydeligt kan hæmme AI/ML-model iteration og generering af forretningsindsigt. AWS- og NVIDIA-samarbejdet leverer en banebrydende forbedring: 3x hurtigere ydeevne for Apache Spark-arbejdsbelastninger. Denne acceleration opnås ved at udnytte Amazon EMR på Amazon EKS med G7e-instanser, drevet af NVIDIAs RTX PRO 6000 Blackwell Server Edition GPU'er.

Denne betydelige ydeevneforbedring er et direkte resultat af fælles ingeniørarbejde fokuseret på optimering af GPU-accelereret analyse. Med Amazon EMR og G7e-instanser kan organisationer dramatisk reducere den tid, der er nødvendig for AI/ML-funktionsteknik, komplekse ETL-transformationer og realtidsanalyse i stor skala. Kunder, der kører storskala databehandlingspipelines, kan opnå hurtigere 'time-to-insight' samtidig med at de opretholder fuld kompatibilitet med deres eksisterende Spark-applikationer.

Udvidet NVIDIA Nemotron-modelunderstøttelse på Amazon Bedrock

AWS og NVIDIA udvider også deres samarbejde om fundamentale modeller og bringer avancerede NVIDIA Nemotron-modeller til Amazon Bedrock.

Udviklere vil snart have mulighed for at finjustere NVIDIA Nemotron-modeller direkte på Amazon Bedrock ved hjælp af Reinforcement Fine-Tuning (RFT). Dette er en game-changer for teams, der skal skræddersy modeladfærd til specifikke domæner, uanset om det er inden for jura, sundhedspleje, finans eller andre specialiserede områder. RFT giver brugerne mulighed for at forme, hvordan en model ræsonnerer og reagerer, og bevæger sig ud over blot vidensakkvisition til nuanceret adfærdsmæssig justering. Det er afgørende, at dette kører nativt på Amazon Bedrock, hvilket eliminerer infrastruktur-overhead – brugere definerer opgaven, giver feedback, og Bedrock håndterer resten.

Desuden kommer NVIDIA Nemotron 3 Super, en hybrid Mixture-of-Experts (MoE)-model bygget til multi-agent-arbejdsbelastninger og udvidet ræsonnement, også snart til Amazon Bedrock. Konstrueret til at hjælpe AI-agenter med at opretholde nøjagtighed på tværs af komplekse, flertrins arbejdsgange, vil Nemotron 3 Super drive forskellige anvendelsesscenarier inden for finans, cybersikkerhed, detailhandel og softwareudvikling. Den lover hurtig, omkostningseffektiv inferens via en fuldt administreret API, hvilket forenkler udrulningen af sofistikerede AI-agenter.

Her er en opsummering af de vigtigste meddelelser:

Funktion/IntegrationBeskrivelsePrimær fordelTilgængelighed
GPU-udrulningOver 1 million NVIDIA GPU'er (Blackwell, Rubin-arkitekturer) på tværs af AWS-regioner.Massiv beregningsskala for alle AI/ML-arbejdsbelastninger, agentisk AI.Starter 2026
Amazon EC2-instanserUnderstøttelse af NVIDIA RTX PRO 4500 Blackwell Server Edition GPU'er på EC2.Første store cloud-udbyder med understøttelse af alsidig AI, grafik, analyse.Kommer snart
LLM-inferensNVIDIA NIXL på AWS EFA for accelereret disaggregeret LLM-inferens på tværs af GPU'er og Trainiums.Minimeret kommunikationslatenstid, maksimeret GPU-udnyttelse for LLM'er.Annonceret
Apache Spark-ydeevne3x hurtigere Spark-arbejdsbelastninger på Amazon EMR på EKS med G7e-instanser (RTX PRO 6000).Accelereret tid til indsigt for dataanalyse, feature engineering.Annonceret
Nemotron-finjusteringReinforcement Fine-Tuning (RFT) for Nemotron-modeller direkte på Amazon Bedrock.Domænespecifik modeladfærdstilpasning uden infrastruktur-overhead.Kommer snart
Nemotron 3 SuperHybrid MoE-model til multi-agent-arbejdsbelastninger og udvidet ræsonnement på Amazon Bedrock.Hurtig, omkostningseffektiv inferens til komplekse, flertrins AI-opgaver.Kommer snart

Engagement i energieffektivitet og bæredygtig AI

Efterhånden som AI-arbejdsbelastninger fortsætter med at vokse eksponentielt, bliver effektiviteten og bæredygtigheden af den underliggende infrastruktur afgørende. Samarbejdet fremhæver også en fælles forpligtelse til at forbedre energieffektiviteten. Ydeevne per watt er ikke længere kun et bæredygtighedsmål, men en betydelig konkurrencefordel i AI-landskabet.

På NVIDIA GTC 2026 sluttede Amazon CSO Kara Hurst sig til andre bæredygtighedsledere for at diskutere, hvordan AI fundamentalt transformerer virksomhedens energi og infrastruktur i stor skala. Denne diskussion understreger fokus på at udvikle og implementere AI-løsninger, der ikke kun er kraftfulde, men også miljømæssigt ansvarlige, fra datacentre optimeret som aktive netdeltagere til bredere virksomheds-AI-applikationer. Denne fremadrettede tilgang sikrer, at fremskridtene inden for AI-beregning er i overensstemmelse med globale bæredygtighedsmål.

Ofte stillede spørgsmål

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Hold dig opdateret

Få de seneste AI-nyheder i din indbakke.

Del