Code Velocity
Ondernemings-KI

AWS, NVIDIA Verdiep KI-Samewerking om Produksie te Versnel

·5 min lees·AWS, NVIDIA·Oorspronklike bron
Deel
AWS- en NVIDIA-logo's prominent vertoon, wat hul uitgebreide strategiese samewerking vir KI-versnelling en innovasie simboliseer.

title: "AWS, NVIDIA Verdiep KI-Samewerking om Produksie te Versnel" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "af" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Ondernemings-KI" keywords:

  • AWS
  • NVIDIA
  • KI-versnelling
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • GTM inferensie
  • EFA
  • Apache Spark
  • Ondernemings-KI
  • Produksie-KI
  • Masjienleer meta_description: "AWS en NVIDIA verdiep hul strategiese samewerking by GTC 2026 en kondig groot integrasies aan om KI van loods tot produksie te versnel, insluitend uitgebreide GPU- ontplooiings, nuwe EC2-instansies, en Nemotron-modelondersteuning op Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "AWS- en NVIDIA-logo's prominent vertoon, wat hul uitgebreide strategiese samewerking vir KI-versnelling en innovasie simboliseer." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Wat is die primêre doel van die uitgebreide strategiese samewerking tussen AWS en NVIDIA?" answer: "Die samewerking is daarop gemik om die oorgang van KI-oplossings van eksperimentele fases na volskaalse produksie-omgewings te versnel. Dit behels die integrasie van nuwe tegnologieë en die uitbreiding van bestaande vermoëns oor versnelde rekenaarkrag, interkonneksie-tegnologieë, model-fyninstelling en inferensie. Die fokus is daarop om kliënte in staat te stel om KI-oplossings te bou en te bedryf wat betroubaar, doeltreffend op skaal, en voldoen aan onderneming-sekuriteits- en regulatoriese vereistes, wat uiteindelik betekenisvolle besigheidsresultate deur produksiegereed KI-stelsels dryf."
  • question: "Watter beduidende GPU-infrastruktuuruitbreidings word deur AWS beplan as deel van hierdie samewerking?" answer: "Vanaf 2026 beplan AWS om meer as 1 miljoen NVIDIA GPU's, insluitend die volgende-generasie Blackwell- en Rubin-argitekture, oor sy wêreldwye wolkomgewings te ontplooi. Hierdie massiewe uitbreiding versterk AWS se posisie as 'n toonaangewende verskaffer van NVIDIA GPU-gebaseerde instansies, wat die breedste versameling vir diverse KI/ML-werkladings bied. Hierdie verbeterde kapasiteit is deurslaggewend vir die ondersteuning van die toenemende vraag na KI-rekenaarkrag, veral vir komplekse agentiese KI-stelsels wat uitgebreide rekenaarkrag benodig."
  • question: "Hoe sal die nuwe Amazon EC2-instansies met NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's gebruikers bevoordeel?" answer: "AWS is die eerste groot wolkverskaffer wat die NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's op Amazon EC2-instansies ondersteun. Hierdie instansies is hoogs veelsydig, geskik vir 'n breë spektrum van werkladings soos data-analise, gesprekvoering-KI, inhoudgenerering, aanbevelingstelsels, videostroming, en gevorderde grafiese lewering. Gebou op die AWS Nitro System, bied dit verbeterde hulpbrondoeltreffendheid, robuuste sekuriteit en stabiliteit, wat superieure werkverrigting lewer vir veeleisende KI- en grafiese toepassings."
  • question: "Hoe verbeter die integrasie van NVIDIA NIXL met AWS EFA Groot Taalmodel (GTM) inferensie?" answer: "Die integrasie van NVIDIA Inference Xfer Library (NIXL) met AWS Elastic Fabric Adapter (EFA) is ontwerp om disgegregeerde GTM-inferensie op Amazon EC2 oor beide NVIDIA GPU's en AWS Trainium-instansies te versnel. Dit is krities vir die bestuur van die kommunikasie-bokoste in groot modelle, wat doeltreffende oorvleueling van kommunikasie en berekening moontlik maak, latensie minimaliseer, en GPU-benutting maksimeer. Dit fasiliteer hoë-deurset, lae-latensie KV-kas data-beweging en integreer natuurlik met gewilde oopbronraamwerke soos NVIDIA Dynamo, vLLM, en SGLang."
  • question: "Watter verbeterings word aan Apache Spark-werkverrigting vir data-analise aangebring?" answer: "AWS en NVIDIA se gesamentlike ingenieursinspannings het gelei tot 'n 3x vinniger werkverrigting vir Apache Spark-werkladings. Dit word bereik deur Amazon EMR op Amazon EKS met G7e-instansies, aangedryf deur NVIDIA RTX PRO 6000 Blackwell Server Edition GPU's, te kombineer. Hierdie beduidende spoedverhoging stel data-ingenieurs en wetenskaplikes in staat om tyd-tot-insig te versnel vir kritieke take soos KI/ML-kenmerkontwerp, komplekse ETL-transformasies, en intydse analise, terwyl volle verenigbaarheid met bestaande Spark-toepassings gehandhaaf word."
  • question: "Watter uitgebreide NVIDIA Nemotron-modelondersteuning kom na Amazon Bedrock?" answer: "Amazon Bedrock sal binnekort ondersteuning bied vir die fyninstelling van NVIDIA Nemotron-modelle direk deur middel van Versterking Fyninstelling (RFT). Hierdie vermoë stel ontwikkelaars in staat om modelgedrag presies af te stem op spesifieke domeine soos regs-, gesondheidsorg- of finansiële sektore sonder infrastruktuur-bokoste. Daarbenewens sal NVIDIA Nemotron 3 Super, 'n hibriede Mixture-of-Experts (MoE) model geoptimaliseer vir multi-agent werkladings en uitgebreide redenering, ook op Amazon Bedrock beskikbaar wees, wat vinnige, koste-effektiewe inferensie bied via 'n ten volle bestuurde API vir komplekse, multi-stap KI-take."
  • question: "Hoe spreek hierdie samewerking energie-doeltreffendheid en volhoubaarheid in KI aan?" answer: "Die samewerking erken die groeiende belangrikheid van energie-doeltreffendheid namate KI-werkladings skaal. Werkverrigting per watt word nie net as 'n volhoubaarheidsmetriek beklemtoon nie, maar ook as 'n mededingende voordeel. Die artikel wys na 'n NVIDIA GTC-sessie waar volhoubaarheidsleiers, insluitend Amazon se Hoofvolhoubaarheidsbeampte Kara Hurst, bespreek hoe KI besigheidsenergie en infrastruktuur transformeer, en lê klem op pogings vir meer volhoubare KI-praktyke van datasentrums tot breër onderneming-KI-toepassings."

AWS, NVIDIA Verdiep KI-Samewerking om Produksie van Loods tot Produksie te Versnel

KI transformeer nywerhede teen 'n ongekende tempo, maar die ware waarde lê nie net in eksperimentering nie, maar in die suksesvolle ontplooiing en bedryf van KI-oplossings in produksie-omgewings. Dit vereis robuuste, skaalbare, veilige en voldoenende stelsels wat tasbare besigheidsresultate lewer. AWS en NVIDIA het hierdie kritieke behoefte aangespreek deur 'n beduidende uitbreiding van hul strategiese samewerking by NVIDIA GTC 2026 aan te kondig, en nuwe tegnologie-integrasies onthul wat ontwerp is om aan die toenemende vraag na KI-rekenaarkrag te voldoen en KI-oplossings na werklike produksie te dryf.

Die verdiepte vennootskap fokus op die versnelling van elke faset van die KI-lewensiklus, van infrastruktuur tot model-ontplooiing. Hierdie integrasies strek oor deurslaggewende gebiede, insluitend versnelde rekenaarkrag, gevorderde interkonneksie-tegnologieë, en vaartbelynde model-fyninstelling en inferensie. Sleutelaankondigings sluit in:

  • Die ontplooiing van meer as 1 miljoen NVIDIA GPU's oor AWS-streke, beginnende in 2026.
  • Amazon EC2-ondersteuning vir NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's, wat AWS die eerste groot wolkverskaffer maak om dit aan te bied.
  • Interkonneksie-versnelling vir disgegregeerde Groot Taalmodel (GTM) inferensie deur NVIDIA NIXL op AWS Elastic Fabric Adapter (EFA) te benut.
  • 'n Dramatiese 3x vinniger werkverrigting vir Apache Spark-werkladings deur Amazon EMR op Amazon Elastic Kubernetes Service (Amazon EKS) met Amazon EC2 G7e-instansies, aangedryf deur NVIDIA RTX PRO 6000 Blackwell Server Edition GPU's, te gebruik.
  • Uitgebreide NVIDIA Nemotron-modelondersteuning op Amazon Bedrock, insluitend Versterking Fyninstelling (Reinforcement Fine-Tuning) en die Nemotron 3 Super-model.

Skaal KI-infrastruktuur met Verbeterde NVIDIA GPU-krag

Die fondament van moderne KI lê in kragtige rekenaarinfrastruktuur. Vanaf 2026 maak AWS 'n monumentale verbintenis tot KI-vooruitgang deur meer as 1 miljoen NVIDIA GPU's by sy wêreldwye wolkgebiede te voeg. Dit sluit volgende-generasie Blackwell- en Rubin GPU-argitekture in, wat verseker dat kliënte toegang het tot die mees gevorderde hardeware beskikbaar. AWS spog reeds met die bedryf se breedste versameling NVIDIA GPU-gebaseerde instansies, wat voorsiening maak vir 'n diverse verskeidenheid KI/ML-werkladings, en hierdie uitbreiding versterk sy leierskap verder.

Hierdie jarelange vennootskap, wat oor 15 jaar strek, strek ook tot deurslaggewende infrastruktuurgebiede soos Spectrum-netwerkkonnektiwiteit. Die doel is om ondernemings, nuwe ondernemings en navorsers te voorsien van die robuuste infrastruktuur wat nodig is om gevorderde Agentiese KI-stelsels te bou en te skaal – KI wat in staat is tot outonome redenering, beplanning en aksie oor komplekse werkvloeie.

Bekendstelling van Nuwe Amazon EC2-instansies en Interkonneksie-innovasies

'n Hoogtepunt van die samewerking is die komende Amazon EC2-instansies wat versnel word deur NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's. AWS is trots om die eerste groot wolkverskaffer te wees wat ondersteuning vir hierdie kragtige GPU's aankondig, wat dit toeganklik maak vir 'n wye reeks veeleisende take. Hierdie instansies is ideaal geskik vir data-analise, gesofistikeerde gesprekvoering-KI, dinamiese inhoudgenerering, gevorderde aanbevelingstelsels, hoë-gehalte videostroming, en komplekse grafiese werkladings.

Hierdie nuwe EC2-instansies sal gebou word op die robuuste AWS Nitro System. Die Nitro System, met sy unieke kombinasie van toegewyde hardeware en 'n liggewig hipervisier, lewer byna al die gasheerhardeware se rekenaarkrag- en geheuehulpbronne direk aan instansies. Hierdie ontwerp verseker superieure hulpbronbenutting en werkverrigting. Krities is die Nitro System se gespesialiseerde hardeware, sagteware en fermware ontwerp om streng beperkings af te dwing, wat sensitiewe KI-werkladings en data teen ongemagtigde toegang beskerm, selfs van binne AWS. Die vermoë om fermware-opdaterings en -optimalisering tydens bedryf uit te voer, verbeter die sekuriteit en stabiliteit wat noodsaaklik is vir produksiegraadse KI-, analise- en grafiese werkladings.

Verdere verbetering van werkverrigting, veral vir massiewe KI-modelle, is die versnelling van interkonneksies vir disgegregeerde GTM-inferensie. Namate modelgroottes aanhou groei, kan kommunikasie-bokoste tussen GPU's of AWS Trainium-instansies 'n beduidende knelpunt word. AWS het ondersteuning vir NVIDIA Inference Xfer Library (NIXL) met AWS Elastic Fabric Adapter (EFA) aangekondig, wat ontwerp is om disgegregeerde GTM-inferensie op Amazon EC2 te versnel, wat beide NVIDIA GPU's en AWS Trainium insluit. Hierdie integrasie is noodsaaklik vir die skaal van moderne KI-werkladings, wat doeltreffende oorvleueling van kommunikasie en berekening moontlik maak, latensie minimaliseer, en GPU-benutting maksimeer. Dit fasiliteer hoë-deurset, lae-latensie KV-kas data-beweging tussen rekenaarnodes en verspreide geheuehulpbronne. NIXL met EFA integreer natuurlik met gewilde oopbronraamwerke soos NVIDIA Dynamo, vLLM, en SGLang, wat verbeterde inter-token latensie en meer doeltreffende KV-kas geheuebenutting lewer.

Versnel Data-analise met Amazon EMR en GPU's

Data-ingenieurs en wetenskaplikes sukkel gereeld met lang dataverwerkingspypleidings wat KI/ML-model-iterasie en die generering van besigheidsintelligensie aansienlik kan belemmer. Die AWS en NVIDIA-samewerking lewer 'n baanbrekende verbetering: 3x vinniger werkverrigting vir Apache Spark-werkladings. Hierdie versnelling word bereik deur Amazon EMR op Amazon EKS met G7e-instansies, aangedryf deur NVIDIA se RTX PRO 6000 Blackwell Server Edition GPU's, te benut.

Hierdie aansienlike prestasiewins is 'n direkte gevolg van gesamentlike ingenieursinspannings wat fokus op die optimalisering van GPU-versnelde analise. Met Amazon EMR en G7e-instansies kan organisasies die tyd wat benodig word vir KI/ML-kenmerkontwerp, komplekse ETL-transformasies, en intydse analise op skaal dramaties verminder. Kliënte wat grootskaalse dataverwerkingspypleidings bedryf, kan vinniger tyd-tot-insig bereik terwyl hulle volle verenigbaarheid met hul bestaande Spark-toepassings handhaaf.

Uitbreiding van NVIDIA Nemotron-modelondersteuning op Amazon Bedrock

AWS en NVIDIA brei ook hul samewerking uit op grondslagmodelle, deur gevorderde NVIDIA Nemotron-modelle na Amazon Bedrock te bring.

Ontwikkelaars sal binnekort die vermoë hê om NVIDIA Nemotron-modelle direk op Amazon Bedrock fyn in te stel deur middel van Versterking Fyninstelling (RFT). Dit is 'n speletjieveranderer vir spanne wat modelgedrag moet aanpas by spesifieke domeine, of dit nou in die regs-, gesondheidsorg-, finansiële of ander gespesialiseerde velde is. RFT stel gebruikers in staat om te vorm hoe 'n model redeneer en reageer, en beweeg verder as blote kennisverwerwing na genuanseerde gedragsbelyning. Krities is dat dit natuurlik op Amazon Bedrock loop, wat infrastruktuur-bokoste elimineer – gebruikers definieer die taak, verskaf terugvoer, en Bedrock bestuur die res.

Verder kom NVIDIA Nemotron 3 Super, 'n hibriede Mixture-of-Experts (MoE) model gebou vir multi-agent werkladings en uitgebreide redenering, ook binnekort na Amazon Bedrock. Ontwerp om KI-agente te help om akkuraatheid oor komplekse, multi-stap werkvloeie te handhaaf, sal Nemotron 3 Super diverse gebruiksgevalle aandryf wat finansies, kubersekuriteit, kleinhandel en sagteware-ontwikkeling omvat. Dit beloof vinnige, koste-effektiewe inferensie deur 'n ten volle bestuurde API, wat die ontplooiing van gesofistikeerde KI-agente vereenvoudig.

Hier is 'n opsomming van die sleutelaankondigings:

Funksie/IntegrasieBeskrywingPrimêre VoordeelBeskikbaarheid
GPU-ontplooiingMeer as 1 miljoen NVIDIA GPU's (Blackwell, Rubin-argitekture) oor AWS-streke.Massiewe rekenaarkrag vir alle KI/ML-werkladings, agentiese KI.Beginnende 2026
Amazon EC2-instansiesOndersteuning vir NVIDIA RTX PRO 4500 Blackwell Server Edition GPU's op EC2.Eerste groot wolkverskaffer-ondersteuning vir veelsydige KI, grafika, analise.Binnekort beskikbaar
GTM-inferensieNVIDIA NIXL op AWS EFA vir versnelde disgegregeerde GTM-inferensie oor GPU's en Trainiums.Geminiemde kommunikasielatensie, gemaksimeerde GPU-benutting vir GTM's.Aangekondig
Apache Spark-werkverrigting3x vinniger Spark-werkladings op Amazon EMR op EKS met G7e-instansies (RTX PRO 6000).Versnelde tyd-tot-insig vir data-analise, kenmerkontwerp.Aangekondig
Nemotron FyninstellingVersterking Fyninstelling (RFT) vir Nemotron-modelle direk op Amazon Bedrock.Domein-spesifieke modelgedrag-belyning sonder infrastruktuur-bokoste.Binnekort beskikbaar
Nemotron 3 SuperHibriede MoE-model vir multi-agent werkladings en uitgebreide redenering op Amazon Bedrock.Vinnige, koste-effektiewe inferensie vir komplekse, multi-stap KI-take.Binnekort beskikbaar

Verbintenis tot Energiedoeltreffendheid en Volhoubare KI

Namate KI-werkladings eksponensieel aanhou groei, word die doeltreffendheid en volhoubaarheid van die onderliggende infrastruktuur van uiterste belang. Die samewerking beklemtoon ook 'n gedeelde verbintenis tot die verbetering van energiedoeltreffendheid. Werkverrigting per watt is nie meer net 'n volhoubaarheidsmetriek nie, maar 'n beduidende mededingende voordeel in die KI-landskap.

By NVIDIA GTC 2026 het Amazon se Hoofvolhoubaarheidsbeampte Kara Hurst by ander volhoubaarheidsleiers aangesluit om te bespreek hoe KI besigheidsenergie en infrastruktuur op skaal fundamenteel transformeer. Hierdie bespreking onderstreep die fokus op die ontwikkeling en ontplooiing van KI-oplossings wat nie net kragtig is nie, maar ook omgewingsverantwoordelik, van datasentrums wat geoptimaliseer is as aktiewe netwerkdeelnemers tot breër onderneming-KI-toepassings. Hierdie vooruitdenkende benadering verseker dat die vooruitgang in KI-rekenaarkrag in lyn is met globale volhoubaarheidsdoelwitte.

Gereelde Vrae

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Bly op hoogte

Kry die nuutste KI-nuus in jou inkassie.

Deel