Code Velocity
Enterprise AI

AWS, NVIDIA Verdiepen AI-Samenwerking om Productie te Versnellen

·5 min leestijd·AWS, NVIDIA·Originele bron
Delen
AWS- en NVIDIA-logo's prominent weergegeven, als symbool voor hun uitgebreide strategische samenwerking voor AI-versnelling en innovatie.

AWS, NVIDIA Verdiepen AI-Samenwerking om AI van Pilot naar Productie te Versnellen

AI transformeert industrieën in een ongekend tempo, maar de ware waarde ligt niet alleen in experimenteren, maar in het succesvol implementeren en exploiteren van AI-oplossingen in productieomgevingen. Dit vereist robuuste, schaalbare, veilige en conforme systemen die tastbare bedrijfsresultaten opleveren. Om aan deze cruciale behoefte te voldoen, kondigden AWS en NVIDIA een aanzienlijke uitbreiding aan van hun strategische samenwerking op NVIDIA GTC 2026, waarbij nieuwe technologie-integraties werden onthuld die zijn ontworpen om te voldoen aan de toenemende vraag naar AI-computing en AI-oplossingen naar de praktijk te stuwen.

Het verdiepte partnerschap richt zich op het versnellen van elk aspect van de AI-levenscyclus, van infrastructuur tot modelimplementatie. Deze integraties omvatten cruciale gebieden zoals versneld computergebruik, geavanceerde interconnect-technologieën en gestroomlijnde model fine-tuning en inferentie. Belangrijke aankondigingen zijn onder meer:

  • De implementatie van meer dan 1 miljoen NVIDIA GPU's in AWS-regio's vanaf 2026.
  • Amazon EC2-ondersteuning voor NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's, waarmee AWS de eerste grote cloudprovider is die dit aanbiedt.
  • Interconnect-versnelling voor gedisaggregeerde Large Language Model (LLM)-inferentie met behulp van NVIDIA NIXL op AWS Elastic Fabric Adapter (EFA).
  • Een dramatische 3x snellere prestatie voor Apache Spark-workloads met behulp van Amazon EMR op Amazon Elastic Kubernetes Service (Amazon EKS) met Amazon EC2 G7e-instanties, aangedreven door NVIDIA RTX PRO 6000 Blackwell Server Edition GPU's.
  • Uitgebreide NVIDIA Nemotron-modelondersteuning op Amazon Bedrock, inclusief Reinforcement Fine-Tuning en het Nemotron 3 Super-model.

AI-infrastructuur schalen met verbeterde NVIDIA GPU-kracht

De basis van moderne AI ligt in krachtige compute-infrastructuur. Vanaf 2026 maakt AWS een monumentale toezegging aan AI-vooruitgang door meer dan 1 miljoen NVIDIA GPU's toe te voegen aan zijn wereldwijde cloudregio's. Dit omvat de volgende generatie Blackwell- en Rubin GPU-architecturen, waardoor klanten toegang krijgen tot de meest geavanceerde hardware die beschikbaar is. AWS beschikt reeds over de breedste verzameling van NVIDIA GPU-gebaseerde instanties in de branche, die tegemoetkomt aan een diverse reeks AI/ML-workloads, en deze uitbreiding verstevigt haar leiderschap verder.

Dit langdurige partnerschap, dat meer dan 15 jaar omvat, strekt zich ook uit tot cruciale infrastructuurgebieden zoals Spectrum networking. Het doel is om bedrijven, startups en onderzoekers te voorzien van de robuuste infrastructuur die nodig is om geavanceerde Agentic AI-systemen te bouwen en te schalen — AI die in staat is tot autonoom redeneren, plannen en handelen in complexe workflows.

Introductie van nieuwe Amazon EC2-instanties en interconnect-innovaties

Een hoogtepunt van de samenwerking zijn de aanstaande Amazon EC2-instanties die worden versneld door NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's. AWS is er trots op de eerste grote cloudprovider te zijn die ondersteuning voor deze krachtige GPU's aankondigt, waardoor ze toegankelijk worden voor een breed scala aan veeleisende taken. Deze instanties zijn bij uitstek geschikt voor data-analyse, geavanceerde conversationele AI, dynamische contentgeneratie, geavanceerde aanbevelingssystemen, hoogwaardige videostreaming en complexe grafische workloads.

Deze nieuwe EC2-instanties zullen worden gebouwd op het robuuste AWS Nitro System. Het Nitro System, met zijn unieke combinatie van dedicated hardware en een lichtgewicht hypervisor, levert bijna alle compute- en geheugenresources van de hosthardware rechtstreeks aan instanties. Dit ontwerp zorgt voor superieure resourcebenutting en prestaties. Cruciaal is dat de gespecialiseerde hardware, software en firmware van het Nitro System zijn ontworpen om strenge beperkingen af te dwingen, waardoor gevoelige AI-workloads en -gegevens worden beschermd tegen ongeautoriseerde toegang, zelfs binnen AWS. De mogelijkheid om firmware-updates en -optimalisaties uit te voeren terwijl het operationeel is, verbetert de beveiliging en stabiliteit verder die essentieel zijn voor productieklare AI-, analyse- en grafische workloads.

Verdere verbetering van de prestaties, met name voor enorme AI-modellen, is de versnelling van interconnects voor gedisaggregeerde LLM-inferentie. Naarmate de modelgroottes blijven toenemen, kan de communicatie-overhead tussen GPU's of AWS Trainium-instanties een aanzienlijke bottleneck worden. AWS kondigde ondersteuning aan voor NVIDIA Inference Xfer Library (NIXL) met AWS Elastic Fabric Adapter (EFA), ontworpen om gedisaggregeerde LLM-inferentie op Amazon EC2 te versnellen, zowel op NVIDIA GPU's als op AWS Trainium. Deze integratie is essentieel voor het schalen van moderne AI-workloads, wat een efficiënte overlap van communicatie en computation mogelijk maakt, de latentie minimaliseert en het GPU-gebruik maximaliseert. Het vergemakkelijkt snelle, lage-latentie KV-cache gegevensverplaatsing tussen computenodes en gedistribueerde geheugenresources. NIXL met EFA integreert native met populaire open-source frameworks zoals NVIDIA Dynamo, vLLM en SGLang, wat resulteert in een verbeterde inter-token latentie en efficiënter KV-cache geheugengebruik.

Data-analyse versnellen met Amazon EMR en GPU's

Data-engineers en -wetenschappers worstelen vaak met langdurige dataverwerkingspipelines die de iteratie van AI/ML-modellen en het genereren van business intelligence aanzienlijk kunnen belemmeren. De samenwerking tussen AWS en NVIDIA levert een baanbrekende verbetering op: 3x snellere prestaties voor Apache Spark-workloads. Deze versnelling wordt bereikt door Amazon EMR op Amazon EKS te benutten met G7e-instanties, aangedreven door NVIDIA's RTX PRO 6000 Blackwell Server Edition GPU's.

Deze aanzienlijke prestatiewinst is een direct resultaat van gezamenlijke technische inspanningen gericht op het optimaliseren van GPU-versnelde analyses. Met Amazon EMR en G7e-instanties kunnen organisaties de benodigde tijd voor AI/ML-feature engineering, complexe ETL-transformaties en realtime-analyses op schaal drastisch verkorten. Klanten die grootschalige dataverwerkingspipelines uitvoeren, kunnen sneller inzichten verkrijgen met behoud van volledige compatibiliteit met hun bestaande Spark-applicaties.

Uitgebreide NVIDIA Nemotron-modelondersteuning op Amazon Bedrock

AWS en NVIDIA breiden ook hun samenwerking op het gebied van fundamentele modellen uit, door geavanceerde NVIDIA Nemotron-modellen naar Amazon Bedrock te brengen.

Ontwikkelaars zullen binnenkort de mogelijkheid hebben om NVIDIA Nemotron-modellen direct op Amazon Bedrock te fine-tunen met behulp van Reinforcement Fine-Tuning (RFT). Dit is een gamechanger voor teams die modelgedrag moeten afstemmen op specifieke domeinen, of het nu gaat om juridisch, gezondheidszorg, financiën of andere gespecialiseerde gebieden. RFT stelt gebruikers in staat om vorm te geven aan hoe een model redeneert en reageert, en gaat verder dan louter kennisverwerving naar genuanceerde gedragsafstemming. Cruciaal is dat dit native op Amazon Bedrock draait, waardoor infrastructuuroverhead wordt geëlimineerd – gebruikers definiëren de taak, geven feedback en Bedrock beheert de rest.

Bovendien komt NVIDIA Nemotron 3 Super, een hybride Mixture-of-Experts (MoE)-model gebouwd voor multi-agent workloads en uitgebreide redenering, binnenkort ook naar Amazon Bedrock. Ontworpen om AI-agenten te helpen de nauwkeurigheid te behouden in complexe, meerstaps workflows, zal Nemotron 3 Super diverse use cases aandrijven op het gebied van financiën, cybersecurity, retail en softwareontwikkeling. Het belooft snelle, kostenefficiënte inferentie via een volledig beheerde API, waardoor de implementatie van geavanceerde AI-agenten wordt vereenvoudigd.

Hier is een samenvatting van de belangrijkste aankondigingen:

Functie/IntegratieBeschrijvingBelangrijkste voordeelBeschikbaarheid
GPU-implementatieMeer dan 1 miljoen NVIDIA GPU's (Blackwell, Rubin-architecturen) in AWS-regio's.Massieve rekencapaciteit voor alle AI/ML-workloads, agentic AI.Vanaf 2026
Amazon EC2-instantiesOndersteuning voor NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's op EC2.Eerste grote cloudprovider die ondersteuning biedt voor veelzijdige AI, grafische weergave, analyses.Binnenkort beschikbaar
LLM-inferentieNVIDIA NIXL op AWS EFA voor versnelde gedisaggregeerde LLM-inferentie over GPU's en Trainiums.Geminimaliseerde communicatielatentie, gemaximaliseerd GPU-gebruik voor LLM's.Aangekondigd
Apache Spark-prestaties3x snellere Spark-workloads op Amazon EMR op EKS met G7e-instanties (RTX PRO 6000).Versnelde tijd-tot-inzicht voor data-analyse, feature engineering.Aangekondigd
Nemotron Fine-TuningReinforcement Fine-Tuning (RFT) voor Nemotron-modellen direct op Amazon Bedrock.Domeinspecifieke afstemming van modelgedrag zonder infrastructuuroverhead.Binnenkort beschikbaar
Nemotron 3 SuperHybride MoE-model voor multi-agent workloads en uitgebreide redenering op Amazon Bedrock.Snelle, kostenefficiënte inferentie voor complexe, meerstaps AI-taken.Binnenkort beschikbaar

Toewijding aan Energie-efficiëntie en Duurzame AI

Naarmate AI-workloads exponentieel blijven groeien, worden de efficiëntie en duurzaamheid van de onderliggende infrastructuur van cruciaal belang. De samenwerking benadrukt ook een gedeelde toewijding aan het verbeteren van energie-efficiëntie. Prestatie per watt is niet langer alleen een duurzaamheidsindicator, maar een aanzienlijk concurrentievoordeel in het AI-landschap.

Op NVIDIA GTC 2026 nam Amazon CSO Kara Hurst deel aan een discussie met andere duurzaamheidsleiders over hoe AI de energie en infrastructuur van bedrijven op schaal fundamenteel transformeert. Deze discussie onderstreept de focus op het ontwikkelen en implementeren van AI-oplossingen die niet alleen krachtig zijn, maar ook ecologisch verantwoord, van datacenters die geoptimaliseerd zijn als actieve netwerkdeelnemers tot bredere bedrijfs-AI-toepassingen. Deze vooruitstrevende aanpak zorgt ervoor dat de vooruitgang in AI-computing aansluit bij de wereldwijde duurzaamheidsdoelstellingen.

Veelgestelde vragen

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Blijf op de hoogte

Ontvang het laatste AI-nieuws in je inbox.

Delen