AWS, NVIDIA Verdiepen AI-Samenwerking om AI van Pilot naar Productie te Versnellen
AI transformeert industrieën in een ongekend tempo, maar de ware waarde ligt niet alleen in experimenteren, maar in het succesvol implementeren en exploiteren van AI-oplossingen in productieomgevingen. Dit vereist robuuste, schaalbare, veilige en conforme systemen die tastbare bedrijfsresultaten opleveren. Om aan deze cruciale behoefte te voldoen, kondigden AWS en NVIDIA een aanzienlijke uitbreiding aan van hun strategische samenwerking op NVIDIA GTC 2026, waarbij nieuwe technologie-integraties werden onthuld die zijn ontworpen om te voldoen aan de toenemende vraag naar AI-computing en AI-oplossingen naar de praktijk te stuwen.
Het verdiepte partnerschap richt zich op het versnellen van elk aspect van de AI-levenscyclus, van infrastructuur tot modelimplementatie. Deze integraties omvatten cruciale gebieden zoals versneld computergebruik, geavanceerde interconnect-technologieën en gestroomlijnde model fine-tuning en inferentie. Belangrijke aankondigingen zijn onder meer:
- De implementatie van meer dan 1 miljoen NVIDIA GPU's in AWS-regio's vanaf 2026.
- Amazon EC2-ondersteuning voor NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's, waarmee AWS de eerste grote cloudprovider is die dit aanbiedt.
- Interconnect-versnelling voor gedisaggregeerde Large Language Model (LLM)-inferentie met behulp van NVIDIA NIXL op AWS Elastic Fabric Adapter (EFA).
- Een dramatische 3x snellere prestatie voor Apache Spark-workloads met behulp van Amazon EMR op Amazon Elastic Kubernetes Service (Amazon EKS) met Amazon EC2 G7e-instanties, aangedreven door NVIDIA RTX PRO 6000 Blackwell Server Edition GPU's.
- Uitgebreide NVIDIA Nemotron-modelondersteuning op Amazon Bedrock, inclusief Reinforcement Fine-Tuning en het Nemotron 3 Super-model.
AI-infrastructuur schalen met verbeterde NVIDIA GPU-kracht
De basis van moderne AI ligt in krachtige compute-infrastructuur. Vanaf 2026 maakt AWS een monumentale toezegging aan AI-vooruitgang door meer dan 1 miljoen NVIDIA GPU's toe te voegen aan zijn wereldwijde cloudregio's. Dit omvat de volgende generatie Blackwell- en Rubin GPU-architecturen, waardoor klanten toegang krijgen tot de meest geavanceerde hardware die beschikbaar is. AWS beschikt reeds over de breedste verzameling van NVIDIA GPU-gebaseerde instanties in de branche, die tegemoetkomt aan een diverse reeks AI/ML-workloads, en deze uitbreiding verstevigt haar leiderschap verder.
Dit langdurige partnerschap, dat meer dan 15 jaar omvat, strekt zich ook uit tot cruciale infrastructuurgebieden zoals Spectrum networking. Het doel is om bedrijven, startups en onderzoekers te voorzien van de robuuste infrastructuur die nodig is om geavanceerde Agentic AI-systemen te bouwen en te schalen — AI die in staat is tot autonoom redeneren, plannen en handelen in complexe workflows.
Introductie van nieuwe Amazon EC2-instanties en interconnect-innovaties
Een hoogtepunt van de samenwerking zijn de aanstaande Amazon EC2-instanties die worden versneld door NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's. AWS is er trots op de eerste grote cloudprovider te zijn die ondersteuning voor deze krachtige GPU's aankondigt, waardoor ze toegankelijk worden voor een breed scala aan veeleisende taken. Deze instanties zijn bij uitstek geschikt voor data-analyse, geavanceerde conversationele AI, dynamische contentgeneratie, geavanceerde aanbevelingssystemen, hoogwaardige videostreaming en complexe grafische workloads.
Deze nieuwe EC2-instanties zullen worden gebouwd op het robuuste AWS Nitro System. Het Nitro System, met zijn unieke combinatie van dedicated hardware en een lichtgewicht hypervisor, levert bijna alle compute- en geheugenresources van de hosthardware rechtstreeks aan instanties. Dit ontwerp zorgt voor superieure resourcebenutting en prestaties. Cruciaal is dat de gespecialiseerde hardware, software en firmware van het Nitro System zijn ontworpen om strenge beperkingen af te dwingen, waardoor gevoelige AI-workloads en -gegevens worden beschermd tegen ongeautoriseerde toegang, zelfs binnen AWS. De mogelijkheid om firmware-updates en -optimalisaties uit te voeren terwijl het operationeel is, verbetert de beveiliging en stabiliteit verder die essentieel zijn voor productieklare AI-, analyse- en grafische workloads.
Verdere verbetering van de prestaties, met name voor enorme AI-modellen, is de versnelling van interconnects voor gedisaggregeerde LLM-inferentie. Naarmate de modelgroottes blijven toenemen, kan de communicatie-overhead tussen GPU's of AWS Trainium-instanties een aanzienlijke bottleneck worden. AWS kondigde ondersteuning aan voor NVIDIA Inference Xfer Library (NIXL) met AWS Elastic Fabric Adapter (EFA), ontworpen om gedisaggregeerde LLM-inferentie op Amazon EC2 te versnellen, zowel op NVIDIA GPU's als op AWS Trainium. Deze integratie is essentieel voor het schalen van moderne AI-workloads, wat een efficiënte overlap van communicatie en computation mogelijk maakt, de latentie minimaliseert en het GPU-gebruik maximaliseert. Het vergemakkelijkt snelle, lage-latentie KV-cache gegevensverplaatsing tussen computenodes en gedistribueerde geheugenresources. NIXL met EFA integreert native met populaire open-source frameworks zoals NVIDIA Dynamo, vLLM en SGLang, wat resulteert in een verbeterde inter-token latentie en efficiënter KV-cache geheugengebruik.
Data-analyse versnellen met Amazon EMR en GPU's
Data-engineers en -wetenschappers worstelen vaak met langdurige dataverwerkingspipelines die de iteratie van AI/ML-modellen en het genereren van business intelligence aanzienlijk kunnen belemmeren. De samenwerking tussen AWS en NVIDIA levert een baanbrekende verbetering op: 3x snellere prestaties voor Apache Spark-workloads. Deze versnelling wordt bereikt door Amazon EMR op Amazon EKS te benutten met G7e-instanties, aangedreven door NVIDIA's RTX PRO 6000 Blackwell Server Edition GPU's.
Deze aanzienlijke prestatiewinst is een direct resultaat van gezamenlijke technische inspanningen gericht op het optimaliseren van GPU-versnelde analyses. Met Amazon EMR en G7e-instanties kunnen organisaties de benodigde tijd voor AI/ML-feature engineering, complexe ETL-transformaties en realtime-analyses op schaal drastisch verkorten. Klanten die grootschalige dataverwerkingspipelines uitvoeren, kunnen sneller inzichten verkrijgen met behoud van volledige compatibiliteit met hun bestaande Spark-applicaties.
Uitgebreide NVIDIA Nemotron-modelondersteuning op Amazon Bedrock
AWS en NVIDIA breiden ook hun samenwerking op het gebied van fundamentele modellen uit, door geavanceerde NVIDIA Nemotron-modellen naar Amazon Bedrock te brengen.
Ontwikkelaars zullen binnenkort de mogelijkheid hebben om NVIDIA Nemotron-modellen direct op Amazon Bedrock te fine-tunen met behulp van Reinforcement Fine-Tuning (RFT). Dit is een gamechanger voor teams die modelgedrag moeten afstemmen op specifieke domeinen, of het nu gaat om juridisch, gezondheidszorg, financiën of andere gespecialiseerde gebieden. RFT stelt gebruikers in staat om vorm te geven aan hoe een model redeneert en reageert, en gaat verder dan louter kennisverwerving naar genuanceerde gedragsafstemming. Cruciaal is dat dit native op Amazon Bedrock draait, waardoor infrastructuuroverhead wordt geëlimineerd – gebruikers definiëren de taak, geven feedback en Bedrock beheert de rest.
Bovendien komt NVIDIA Nemotron 3 Super, een hybride Mixture-of-Experts (MoE)-model gebouwd voor multi-agent workloads en uitgebreide redenering, binnenkort ook naar Amazon Bedrock. Ontworpen om AI-agenten te helpen de nauwkeurigheid te behouden in complexe, meerstaps workflows, zal Nemotron 3 Super diverse use cases aandrijven op het gebied van financiën, cybersecurity, retail en softwareontwikkeling. Het belooft snelle, kostenefficiënte inferentie via een volledig beheerde API, waardoor de implementatie van geavanceerde AI-agenten wordt vereenvoudigd.
Hier is een samenvatting van de belangrijkste aankondigingen:
| Functie/Integratie | Beschrijving | Belangrijkste voordeel | Beschikbaarheid |
|---|---|---|---|
| GPU-implementatie | Meer dan 1 miljoen NVIDIA GPU's (Blackwell, Rubin-architecturen) in AWS-regio's. | Massieve rekencapaciteit voor alle AI/ML-workloads, agentic AI. | Vanaf 2026 |
| Amazon EC2-instanties | Ondersteuning voor NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's op EC2. | Eerste grote cloudprovider die ondersteuning biedt voor veelzijdige AI, grafische weergave, analyses. | Binnenkort beschikbaar |
| LLM-inferentie | NVIDIA NIXL op AWS EFA voor versnelde gedisaggregeerde LLM-inferentie over GPU's en Trainiums. | Geminimaliseerde communicatielatentie, gemaximaliseerd GPU-gebruik voor LLM's. | Aangekondigd |
| Apache Spark-prestaties | 3x snellere Spark-workloads op Amazon EMR op EKS met G7e-instanties (RTX PRO 6000). | Versnelde tijd-tot-inzicht voor data-analyse, feature engineering. | Aangekondigd |
| Nemotron Fine-Tuning | Reinforcement Fine-Tuning (RFT) voor Nemotron-modellen direct op Amazon Bedrock. | Domeinspecifieke afstemming van modelgedrag zonder infrastructuuroverhead. | Binnenkort beschikbaar |
| Nemotron 3 Super | Hybride MoE-model voor multi-agent workloads en uitgebreide redenering op Amazon Bedrock. | Snelle, kostenefficiënte inferentie voor complexe, meerstaps AI-taken. | Binnenkort beschikbaar |
Toewijding aan Energie-efficiëntie en Duurzame AI
Naarmate AI-workloads exponentieel blijven groeien, worden de efficiëntie en duurzaamheid van de onderliggende infrastructuur van cruciaal belang. De samenwerking benadrukt ook een gedeelde toewijding aan het verbeteren van energie-efficiëntie. Prestatie per watt is niet langer alleen een duurzaamheidsindicator, maar een aanzienlijk concurrentievoordeel in het AI-landschap.
Op NVIDIA GTC 2026 nam Amazon CSO Kara Hurst deel aan een discussie met andere duurzaamheidsleiders over hoe AI de energie en infrastructuur van bedrijven op schaal fundamenteel transformeert. Deze discussie onderstreept de focus op het ontwikkelen en implementeren van AI-oplossingen die niet alleen krachtig zijn, maar ook ecologisch verantwoord, van datacenters die geoptimaliseerd zijn als actieve netwerkdeelnemers tot bredere bedrijfs-AI-toepassingen. Deze vooruitstrevende aanpak zorgt ervoor dat de vooruitgang in AI-computing aansluit bij de wereldwijde duurzaamheidsdoelstellingen.
Veelgestelde vragen
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Blijf op de hoogte
Ontvang het laatste AI-nieuws in je inbox.
