Code Velocity
Podniková AI

AWS, NVIDIA prehlbujú spoluprácu v oblasti AI s cieľom urýchliť prechod od pilotných projektov k produkcii

·5 min čítania·AWS, NVIDIA·Pôvodný zdroj
Zdieľať
Logá AWS a NVIDIA výrazne zobrazené, symbolizujúce ich rozšírenú strategickú spoluprácu pre akceleráciu a inovácie v oblasti AI.

title: "AWS, NVIDIA prehlbujú spoluprácu v oblasti AI s cieľom urýchliť prechod od pilotných projektov k produkcii" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "sk" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Podniková AI" keywords:

  • AWS
  • NVIDIA
  • akcelerácia AI
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • inferencia LLM
  • EFA
  • Apache Spark
  • Podniková AI
  • Produkčná AI
  • Strojové učenie meta_description: "AWS a NVIDIA prehlbujú svoju strategickú spoluprácu na GTC 2026, oznamujúc významné integrácie na urýchlenie AI od pilotných projektov k produkcii, vrátane rozšírených nasadení GPU, nových inštancií EC2 a podpory modelu Nemotron na Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Logá AWS a NVIDIA výrazne zobrazené, symbolizujúce ich rozšírenú strategickú spoluprácu pre akceleráciu a inovácie v oblasti AI." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Aký je primárny cieľ rozšírenej strategickej spolupráce medzi AWS a NVIDIA?" answer: "Cieľom spolupráce je urýchliť prechod riešení AI z experimentálnych fáz do plnohodnotných produkčných prostredí. To zahŕňa integráciu nových technológií a rozšírenie existujúcich možností v oblasti akcelerovaného výpočtu, interkonektových technológií, dolaďovania modelov a inferencie. Zameriavame sa na to, aby zákazníci mohli vytvárať a spúšťať riešenia AI, ktoré sú spoľahlivé, výkonné vo veľkom rozsahu a v súlade s podnikovými bezpečnostnými a regulačnými požiadavkami, čím sa dosiahnu zmysluplné obchodné výsledky prostredníctvom produkčne pripravených systémov AI."
  • question: "Aké významné rozšírenia infraštruktúry GPU plánuje AWS v rámci tejto spolupráce?" answer: "Od roku 2026 plánuje AWS nasadiť viac ako 1 milión GPU NVIDIA, vrátane architektúr Blackwell a Rubin novej generácie, v rámci svojich globálnych cloudových regiónov. Toto rozsiahle rozšírenie upevňuje pozíciu AWS ako popredného poskytovateľa inštancií založených na GPU NVIDIA, ponúkajúceho najširšiu kolekciu pre rôznorodé AI/ML pracovné záťaže. Táto zvýšená kapacita je kľúčová pre podporu rastúceho dopytu po výpočtoch AI, najmä pre komplexné agentné systémy AI, ktoré vyžadujú rozsiahly výpočtový výkon."
  • question: "Ako nové inštancie Amazon EC2 s GPU NVIDIA RTX PRO 4500 Blackwell Server Edition prospejú používateľom?" answer: "AWS je prvým veľkým cloudovým poskytovateľom, ktorý podporuje GPU NVIDIA RTX PRO 4500 Blackwell Server Edition na inštanciách Amazon EC2. Tieto inštancie sú veľmi univerzálne, vhodné pre široké spektrum pracovných záťaží, ako sú analýza dát, konverzačná AI, generovanie obsahu, odporúčacie systémy, streamovanie videa a pokročilé grafické vykresľovanie. Sú postavené na AWS Nitro System a ponúkajú zvýšenú efektivitu zdrojov, robustné zabezpečenie a stabilitu, čím poskytujú vynikajúci výkon pre náročné aplikácie AI a grafiky."
  • question: "Ako integrácia NVIDIA NIXL s AWS EFA zlepšuje inferenciu veľkých jazykových modelov (LLM)?" answer: "Integrácia NVIDIA Inference Xfer Library (NIXL) s AWS Elastic Fabric Adapter (EFA) je navrhnutá na urýchlenie disagregovanej inferencie LLM na Amazon EC2 naprieč GPU NVIDIA a inštanciami AWS Trainium. To je kľúčové pre správu komunikačných nákladov vo veľkých modeloch, umožňujúc efektívne prekrývanie komunikácie a výpočtu, minimalizáciu latencie a maximalizáciu využitia GPU. Uľahčuje vysokopriepustný, nízko-latencný prenos dát KV-cache a natívne sa integruje s populárnymi open-source frameworkmi ako NVIDIA Dynamo, vLLM a SGLang."
  • question: "Aké vylepšenia sa robia v oblasti výkonu Apache Spark pre analýzu dát?" answer: "Spoločné inžinierske úsilie AWS a NVIDIA viedlo k 3-násobnému zrýchleniu výkonu pre pracovné záťaže Apache Spark. To sa dosahuje kombináciou Amazon EMR na Amazon EKS s inštanciami G7e, poháňanými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Toto významné zrýchlenie umožňuje dátovým inžinierom a vedcom urýchliť čas k poznatkom pre kritické úlohy, ako je inžinierstvo funkcií AI/ML, komplexné transformácie ETL a analýzy v reálnom čase, pri zachovaní plnej kompatibility s existujúcimi aplikáciami Spark."
  • question: "Aká rozšírená podpora modelu NVIDIA Nemotron prichádza do Amazon Bedrock?" answer: "Amazon Bedrock bude čoskoro podporovať jemné doladenie modelov NVIDIA Nemotron priamo pomocou Reinforcement Fine-Tuning (RFT). Táto funkcia umožňuje vývojárom presne prispôsobiť správanie modelu konkrétnym doménam, ako je právo, zdravotníctvo alebo financie, bez režijných nákladov na infraštruktúru. Okrem toho, NVIDIA Nemotron 3 Super, hybridný model Mixture-of-Experts (MoE) optimalizovaný pre pracovné záťaže viacerých agentov a rozšírené uvažovanie, bude tiež dostupný na Amazon Bedrock, poskytujúc rýchlu a nákladovo efektívnu inferenciu prostredníctvom plne spravovaného API pre komplexné, viacstupňové úlohy AI."
  • question: "Ako táto spolupráca rieši energetickú účinnosť a udržateľnosť v AI?" answer: "Spolupráca uznáva rastúci význam energetickej účinnosti pri škálovaní pracovných záťaží AI. Výkon na watt je zdôrazňovaný nielen ako metrika udržateľnosti, ale aj ako konkurenčná výhoda. Článok poukazuje na stretnutie NVIDIA GTC, kde lídri v oblasti udržateľnosti, vrátane CSO Amazonu Kara Hurst, diskutujú o tom, ako AI transformuje podnikovú energiu a infraštruktúru, zdôrazňujúc úsilie o udržateľnejšie postupy AI od dátových centier po širšie podnikové aplikácie AI."

# AWS, NVIDIA prehlbujú spoluprácu v oblasti AI s cieľom urýchliť prechod od pilotných projektov k produkcii

AI transformuje priemyselné odvetvia bezprecedentným tempom, no skutočná hodnota nespočíva len v experimentovaní, ale v úspešnom nasadení a prevádzke riešení AI v produkčných prostrediach. To si vyžaduje robustné, škálovateľné, bezpečné a vyhovujúce systémy, ktoré prinášajú hmatateľné obchodné výsledky. V reakcii na túto kritickú potrebu AWS a NVIDIA oznámili významné rozšírenie svojej strategickej spolupráce na NVIDIA GTC 2026, pričom predstavili nové technologické integrácie navrhnuté tak, aby uspokojili stupňujúci sa dopyt po výpočtoch AI a posunuli riešenia AI do reálnej produkcie.

Prehĺbené partnerstvo sa zameriava na urýchlenie každého aspektu životného cyklu AI, od infraštruktúry po nasadenie modelov. Tieto integrácie pokrývajú kľúčové oblasti vrátane akcelerovaného výpočtu, pokročilých interkonektových technológií a zjednodušeného jemného doladenia a inferencie modelov. Medzi kľúčové oznámenia patria:

*   Nasadenie viac ako 1 milióna GPU NVIDIA naprieč regiónmi AWS počnúc rokom 2026.
*   Podpora Amazon EC2 pre GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, čím sa AWS stáva prvým veľkým cloudovým poskytovateľom, ktorý to ponúka.
*   Akcelerácia interkonektov pre disagregovanú inferenciu veľkých jazykových modelov (LLM) s využitím NVIDIA NIXL na AWS Elastic Fabric Adapter (EFA).
*   Dramaticky 3x rýchlejší výkon pre pracovné záťaže Apache Spark pomocou Amazon EMR na Amazon Elastic Kubernetes Service (Amazon EKS) s inštanciami Amazon EC2 G7e, poháňanými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
*   Rozšírená podpora modelu NVIDIA Nemotron na Amazon Bedrock, vrátane Reinforcement Fine-Tuning a modelu Nemotron 3 Super.

## Škálovanie infraštruktúry AI s vylepšeným výkonom GPU NVIDIA

Základom modernej AI je výkonná výpočtová infraštruktúra. Od roku 2026 sa AWS zaväzuje k monumentálnemu pokroku v AI pridaním viac ako 1 milióna GPU NVIDIA do svojich globálnych cloudových regiónov. To zahŕňa architektúry GPU Blackwell a Rubin novej generácie, čím sa zákazníkom zabezpečí prístup k najpokročilejšiemu dostupnému hardvéru. AWS sa už teraz pýši najširšou kolekciou inštancií založených na GPU NVIDIA v odvetví, ktoré uspokojujú rôznorodé AI/ML pracovné záťaže, a toto rozšírenie ďalej upevňuje jej vedúce postavenie.

Toto dlhodobé partnerstvo, trvajúce viac ako 15 rokov, sa rozširuje aj na kľúčové oblasti infraštruktúry, ako je sieť Spectrum. Cieľom je poskytnúť podnikom, startupom a výskumníkom robustnú infraštruktúru potrebnú na budovanie a škálovanie pokročilých [agentných systémov AI](/sk/operationalizing-agentic-ai-part-1-a-stakeholders-guide)—AI schopných autonómneho uvažovania, plánovania a konania naprieč komplexnými pracovnými postupmi.

## Predstavenie nových inštancií Amazon EC2 a inovácií v interkonektách

Vrcholom spolupráce sú pripravované inštancie Amazon EC2 akcelerované GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS je hrdý na to, že je prvým veľkým cloudovým poskytovateľom, ktorý oznámil podporu pre tieto výkonné GPU, čím ich sprístupňuje pre širokú škálu náročných úloh. Tieto inštancie sú ideálne vhodné pre analýzu dát, sofistikovanú konverzačnú AI, dynamické generovanie obsahu, pokročilé odporúčacie systémy, vysokokvalitné streamovanie videa a komplexné grafické pracovné záťaže.

Tieto nové inštancie EC2 budú postavené na robustnom [AWS Nitro System](https://aws.amazon.com/ec2/nitro/). Systém Nitro so svojou jedinečnou kombináciou vyhradeného hardvéru a ľahkého hypervízora poskytuje takmer všetky výpočtové a pamäťové zdroje hostiteľského hardvéru priamo inštanciám. Tento dizajn zabezpečuje vynikajúce využitie zdrojov a výkon. Kľúčové je, že špecializovaný hardvér, softvér a firmvér systému Nitro sú navrhnuté tak, aby presadzovali prísne obmedzenia, chrániac citlivé pracovné záťaže AI a dáta pred neoprávneným prístupom, a to aj zvnútra AWS. Jeho schopnosť vykonávať aktualizácie firmvéru a optimalizácie počas prevádzky ďalej zvyšuje bezpečnosť a stabilitu nevyhnutnú pre produkčné pracovné záťaže AI, analýz a grafiky.

Ďalšie zvýšenie výkonu, najmä pre rozsiahle modely AI, prináša akcelerácia interkonektov pre disagregovanú inferenciu LLM. Keďže veľkosť modelov neustále rastie, komunikačné režijné náklady medzi GPU alebo inštanciami AWS Trainium sa môžu stať významným úzkym hrdlom. AWS oznámila podporu pre NVIDIA Inference Xfer Library (NIXL) s AWS Elastic Fabric Adapter (EFA), navrhnutú na urýchlenie disagregovanej inferencie LLM na Amazon EC2, pokrývajúc ako GPU NVIDIA, tak aj AWS Trainium. Táto integrácia je životne dôležitá pre škálovanie moderných pracovných záťaží AI, umožňujúc efektívne prekrývanie komunikácie a výpočtu, minimalizáciu latencie a maximalizáciu [využitia GPU](/sk/gpus). Uľahčuje vysokopriepustný, nízko-latencný prenos dát KV-cache medzi výpočtovými uzlami a distribuovanými pamäťovými zdrojmi. NIXL s EFA sa natívne integruje s populárnymi open-source frameworkmi, ako sú NVIDIA Dynamo, vLLM a SGLang, čím poskytuje zlepšenú inter-tokenovú latenciu a efektívnejšie využitie pamäte KV-cache.

## Akcelerácia analýzy dát s Amazon EMR a GPU

Dátoví inžinieri a vedci sa často stretávajú s dlhými dátovými spracovateľskými potrubiami, ktoré môžu výrazne brániť iterácii modelov AI/ML a generovaniu obchodných informácií. Spolupráca AWS a NVIDIA prináša prelomové zlepšenie: 3x rýchlejší výkon pre pracovné záťaže Apache Spark. Táto akcelerácia sa dosahuje využitím Amazon EMR na Amazon EKS s inštanciami G7e, poháňanými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.

Tento podstatný nárast výkonu je priamym výsledkom spoločného inžinierskeho úsilia zameraného na optimalizáciu GPU-akcelerovaných analýz. S Amazon EMR a inštanciami G7e môžu organizácie dramaticky skrátiť čas potrebný na inžinierstvo funkcií AI/ML, komplexné transformácie ETL a analýzy v reálnom čase vo veľkom rozsahu. Zákazníci prevádzkujúci rozsiahle dátové spracovateľské potrubia môžu dosiahnuť rýchlejší čas k poznatkom pri zachovaní plnej kompatibility so svojimi existujúcimi aplikáciami Spark.

## Rozšírená podpora modelu NVIDIA Nemotron na Amazon Bedrock

AWS a NVIDIA tiež rozširujú svoju spoluprácu na základných modeloch, prinášajúc pokročilé modely NVIDIA Nemotron na Amazon Bedrock.

Vývojári budú čoskoro môcť jemne doladiť modely NVIDIA Nemotron priamo na Amazon Bedrock pomocou Reinforcement Fine-Tuning (RFT). Toto je prelom pre tímy, ktoré potrebujú prispôsobiť správanie modelu špecifickým doménam, či už v právnej, zdravotníckej, finančnej alebo iných špecializovaných oblastiach. RFT umožňuje používateľom formovať spôsob, akým model uvažuje a reaguje, presahujúc obyčajné získavanie vedomostí k nuansovanému zosúladeniu správania. Kľúčové je, že toto beží natívne na Amazon Bedrock, čím sa eliminuje réžia infraštruktúry – používatelia definujú úlohu, poskytujú spätnú väzbu a Bedrock spravuje zvyšok.

Okrem toho, NVIDIA Nemotron 3 Super, hybridný model Mixture-of-Experts (MoE) vytvorený pre viacagentové pracovné záťaže a rozšírené uvažovanie, prichádza tiež čoskoro na Amazon Bedrock. Navrhnutý tak, aby pomohol agentom AI udržiavať presnosť naprieč komplexnými, viacstupňovými pracovnými postupmi, Nemotron 3 Super bude poháňať rôznorodé prípady použitia v oblasti financií, kybernetickej bezpečnosti, maloobchodu a vývoja softvéru. Sľubuje rýchlu a nákladovo efektívnu inferenciu prostredníctvom plne spravovaného API, zjednodušujúc nasadenie sofistikovaných agentov AI.

Tu je súhrn kľúčových oznámení:

| Funkcia/Integrácia                  | Popis                                                                                                                                              | Primárny prínos                                                                      | Dostupnosť          |
| :---------------------------------- | :------------------------------------------------------------------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------- | :------------------ |
| **Nasadenie GPU**                   | Viac ako 1 milión GPU NVIDIA (architektúry Blackwell, Rubin) naprieč regiónmi AWS.                                                                 | Masívny výpočtový rozsah pre všetky AI/ML pracovné záťaže, agentnú AI.              | Od roku 2026        |
| **Inštancie Amazon EC2**            | Podpora pre GPU NVIDIA RTX PRO 4500 Blackwell Server Edition na EC2.                                                                                 | Prvá podpora významného cloudového poskytovateľa pre všestrannú AI, grafiku, analýzy. | Už čoskoro          |
| **Inferencia LLM**                  | NVIDIA NIXL na AWS EFA pre akcelerovanú disagregovanú inferenciu LLM naprieč GPU a Trainium.                                                           | Minimalizovaná latencia komunikácie, maximalizované využitie GPU pre LLM.            | Oznámené            |
| **Výkon Apache Spark**              | 3x rýchlejšie pracovné záťaže Spark na Amazon EMR na EKS s inštanciami G7e (RTX PRO 6000).                                                           | Zrýchlený čas k poznatkom pre analýzu dát, inžinierstvo funkcií.                     | Oznámené            |
| **Jemné doladenie Nemotron**        | Reinforcement Fine-Tuning (RFT) pre modely Nemotron priamo na Amazon Bedrock.                                                                       | Zosúladenie správania modelu špecifického pre doménu bez réžie infraštruktúry.     | Už čoskoro          |
| **Nemotron 3 Super**                | Hybridný model MoE pre viacagentové pracovné záťaže a rozšírené uvažovanie na Amazon Bedrock.                                                        | Rýchla, nákladovo efektívna inferencia pre komplexné, viacstupňové úlohy AI.         | Už čoskoro          |

## Záväzok k energetickej účinnosti a udržateľnej AI

Keďže pracovné záťaže AI neustále exponenciálne rastú, účinnosť a udržateľnosť základnej infraštruktúry sa stávajú prvoradými. Spolupráca tiež zdôrazňuje spoločný záväzok zlepšovať energetickú účinnosť. Výkon na watt už nie je len metrikou udržateľnosti, ale aj významnou konkurenčnou výhodou v prostredí AI.

Na NVIDIA GTC 2026 sa Kara Hurst, CSO Amazonu, pripojila k ďalším lídrom v oblasti udržateľnosti, aby diskutovali o tom, ako AI zásadne transformuje podnikovú energiu a infraštruktúru vo veľkom rozsahu. Táto diskusia podčiarkuje zameranie sa na vývoj a nasadzovanie riešení AI, ktoré sú nielen výkonné, ale aj environmentálne zodpovedné, od dátových centier optimalizovaných ako aktívni účastníci siete až po širšie podnikové aplikácie AI. Tento progresívny prístup zabezpečuje, že pokroky vo výpočtoch AI sú v súlade s globálnymi cieľmi udržateľnosti.

Často kladené otázky

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Buďte informovaní

Dostávajte najnovšie AI správy do schránky.

Zdieľať