title: 'AWS, NVIDIA prohlubují spolupráci v oblasti AI pro urychlení produkce' slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "cs" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Podniková AI" keywords:
- AWS
- NVIDIA
- Akcelerace AI
- GTC 2026
- GPU
- Amazon EC2
- Amazon Bedrock
- Nemotron
- Dedukce LLM
- EFA
- Apache Spark
- Podniková AI
- Produkční AI
- Strojové učení meta_description: 'AWS a NVIDIA prohlubují svou strategickou spolupráci na GTC 2026 a oznamují zásadní integrace pro urychlení AI z pilotní fáze do produkce, včetně rozšířeného nasazení GPU, nových instancí EC2 a podpory modelů Nemotron na Amazon Bedrock.' image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: 'Výrazně zobrazená loga AWS a NVIDIA symbolizující jejich rozšířenou strategickou spolupráci pro akceleraci a inovace v oblasti AI.' quality_score: 94 content_score: 93 seo_score: 95 companies:
- AWS
- NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Jaký je primární cíl rozšířené strategické spolupráce mezi AWS a NVIDIA?" answer: "Spolupráce si klade za cíl urychlit přechod AI řešení z experimentálních fází do plnohodnotných produkčních prostředí. To zahrnuje integraci nových technologií a rozšíření stávajících schopností v oblasti akcelerovaného výpočtu, propojovacích technologií, jemného doladění modelů a dedukce. Zaměřuje se na to, aby zákazníkům umožnila vytvářet a provozovat AI řešení, která jsou spolehlivá, výkonná ve velkém měřítku a v souladu s podnikovými bezpečnostními a regulačními požadavky, což v konečném důsledku vede k významným obchodním výsledkům prostřednictvím AI systémů připravených pro produkci."
- question: "Jaké významné rozšíření GPU infrastruktury plánuje AWS v rámci této spolupráce?" answer: "Počínaje rokem 2026 plánuje AWS nasadit přes 1 milion GPU NVIDIA, včetně architektur Blackwell a Rubin nové generace, napříč svými globálními cloudovými regiony. Toto masivní rozšíření upevňuje pozici AWS jako předního poskytovatele instancí založených na GPU NVIDIA, nabízejícího nejširší portfolio pro různé pracovní zátěže AI/ML. Tato zvýšená kapacita je klíčová pro podporu rostoucí poptávky po výpočetním výkonu AI, zejména pro komplexní agentní AI systémy, které vyžadují rozsáhlý výpočetní výkon."
- question: "Jaké výhody přinesou uživatelům nové instance Amazon EC2 s GPU NVIDIA RTX PRO 4500 Blackwell Server Edition?" answer: "AWS je prvním velkým poskytovatelem cloudu, který podporuje GPU NVIDIA RTX PRO 4500 Blackwell Server Edition na instancích Amazon EC2. Tyto instance jsou vysoce univerzální, vhodné pro široké spektrum úloh, jako je analýza dat, konverzační AI, generování obsahu, doporučovací systémy, streamování videa a pokročilé vykreslování grafiky. Jsou postaveny na systému AWS Nitro a nabízejí zvýšenou efektivitu zdrojů, robustní zabezpečení a stabilitu, čímž poskytují špičkový výkon pro náročné AI a grafické aplikace."
- question: "Jak integrace NVIDIA NIXL s AWS EFA vylepšuje dedukci velkých jazykových modelů (LLM)?" answer: "Integrace NVIDIA Inference Xfer Library (NIXL) s AWS Elastic Fabric Adapter (EFA) je navržena pro urychlení disagregované dedukce LLM na Amazon EC2 napříč GPU NVIDIA i instancemi AWS Trainium. To je klíčové pro správu komunikační režie ve velkých modelech, což umožňuje efektivní překrývání komunikace a výpočtů, minimalizaci latence a maximalizaci využití GPU. Usnadňuje pohyb dat KV-cache s vysokou propustností a nízkou latencí a nativně se integruje s populárními open-source frameworky, jako jsou NVIDIA Dynamo, vLLM a SGLang."
- question: "Jaká vylepšení se chystají u výkonu Apache Spark pro datovou analýzu?" answer: "Společné inženýrské úsilí AWS a NVIDIA vedlo k 3x rychlejšímu výkonu pro pracovní zátěže Apache Spark. Toho je dosaženo kombinací Amazon EMR na Amazon EKS s instancemi G7e, poháněnými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Toto významné zrychlení umožňuje datovým inženýrům a vědcům urychlit získávání poznatků pro kritické úlohy, jako je inženýrství funkcí AI/ML, komplexní transformace ETL a analýzy v reálném čase, při zachování plné kompatibility s existujícími aplikacemi Spark."
- question: "Jaká rozšířená podpora modelů NVIDIA Nemotron se chystá pro Amazon Bedrock?" answer: "Amazon Bedrock brzy podpoří jemné doladění modelů NVIDIA Nemotron přímo pomocí Reinforcement Fine-Tuning (RFT). Tato schopnost umožňuje vývojářům přesně sladit chování modelu se specifickými doménami, jako je právo, zdravotnictví nebo finance, bez režie infrastruktury. Kromě toho bude na Amazon Bedrock k dispozici také NVIDIA Nemotron 3 Super, hybridní model Mixture-of-Experts (MoE) optimalizovaný pro pracovní zátěže s více agenty a rozšířené uvažování, který poskytuje rychlou a nákladově efektivní dedukci prostřednictvím plně spravovaného API pro komplexní, vícestupňové AI úlohy."
- question: "Jak tato spolupráce řeší energetickou účinnost a udržitelnost v AI?" answer: "Spolupráce uznává rostoucí význam energetické účinnosti s rostoucím rozsahem AI úloh. Výkon na watt je zdůrazňován nejen jako metrika udržitelnosti, ale také jako konkurenční výhoda. Článek odkazuje na přednášku na NVIDIA GTC, kde lídři v oblasti udržitelnosti, včetně CSO Amazonu Kary Hurst, diskutují o tom, jak AI transformuje podnikovou energii a infrastrukturu, zdůrazňujíce úsilí o udržitelnější AI postupy od datových center až po širší podnikové AI aplikace."
# AWS, NVIDIA prohlubují spolupráci v oblasti AI pro urychlení produkce od pilotní fáze do produkce
AI transformuje průmysl nebývalým tempem, ale skutečná hodnota nespočívá pouze v experimentování, nýbrž v úspěšném nasazení a provozování AI řešení v produkčních prostředích. To vyžaduje robustní, škálovatelné, bezpečné a vyhovující systémy, které přinášejí hmatatelné obchodní výsledky. V reakci na tuto kritickou potřebu oznámily AWS a NVIDIA na NVIDIA GTC 2026 významné rozšíření své strategické spolupráce, představující nové technologické integrace navržené tak, aby uspokojily rostoucí poptávku po výpočetním výkonu AI a posunuly AI řešení do reálné produkce.
Prohloubené partnerství se zaměřuje na urychlení všech aspektů životního cyklu AI, od infrastruktury po nasazení modelů. Tyto integrace zahrnují klíčové oblasti, včetně akcelerovaných výpočtů, pokročilých propojovacích technologií a zjednodušeného jemného doladění a dedukce modelů. Mezi klíčová oznámení patří:
* Nasazení více než 1 milionu GPU NVIDIA napříč regiony AWS počínaje rokem 2026.
* Podpora Amazon EC2 pro GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, čímž se AWS stává prvním velkým poskytovatelem cloudu, který toto nabízí.
* Akcelerace propojení pro disagregovanou dedukci velkých jazykových modelů (LLM) využívající NVIDIA NIXL na AWS Elastic Fabric Adapter (EFA).
* Dramatické 3x rychlejšího výkonu pro pracovní zátěže Apache Spark s využitím Amazon EMR na Amazon Elastic Kubernetes Service (Amazon EKS) s instancemi Amazon EC2 G7e, poháněnými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
* Rozšířená podpora modelů NVIDIA Nemotron na Amazon Bedrock, včetně Reinforcement Fine-Tuning a modelu Nemotron 3 Super.
## Škálování infrastruktury AI s vylepšeným výkonem GPU NVIDIA
Základ moderní AI spočívá ve výkonné výpočetní infrastruktuře. Počínaje rokem 2026 se AWS zavazuje k monumentálnímu pokroku v AI přidáním více než 1 milionu GPU NVIDIA do svých globálních cloudových regionů. To zahrnuje architektury GPU Blackwell a Rubin nové generace, což zákazníkům zajišťuje přístup k nejpokročilejšímu dostupnému hardwaru. AWS se již nyní může pochlubit nejširší kolekcí instancí založených na GPU NVIDIA v oboru, které obsluhují rozmanitou škálu úloh AI/ML, a toto rozšíření dále upevňuje její vedoucí postavení.
Toto dlouholeté partnerství, trvající přes 15 let, se rovněž rozšiřuje na klíčové oblasti infrastruktury, jako je síťování Spectrum. Cílem je poskytnout podnikům, startupům a výzkumníkům robustní infrastrukturu potřebnou k budování a škálování pokročilých [agentních systémů AI](/cs/operationalizing-agentic-ai-part-1-a-stakeholders-guide) – AI schopné autonomního uvažování, plánování a jednání napříč komplexními pracovními postupy.
## Představení nových instancí Amazon EC2 a inovací v propojení
Vrcholem spolupráce jsou nadcházející instance Amazon EC2 akcelerované GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS je hrdá na to, že je prvním velkým poskytovatelem cloudu, který oznámil podporu těchto výkonných GPU, čímž je zpřístupňuje pro širokou škálu náročných úloh. Tyto instance jsou ideálně vhodné pro datovou analýzu, sofistikovanou konverzační AI, dynamickou generaci obsahu, pokročilé doporučovací systémy, vysoce kvalitní streamování videa a komplexní grafické úlohy.
Tyto nové instance EC2 budou postaveny na robustním [systému AWS Nitro](https://aws.amazon.com/ec2/nitro/). Systém Nitro, se svou jedinečnou kombinací vyhrazeného hardwaru a odlehčeného hypervizoru, dodává téměř všechny výpočetní a paměťové zdroje hostitelského hardwaru přímo instancím. Tento design zajišťuje vynikající využití zdrojů a výkon. Zásadní je, že specializovaný hardware, software a firmware systému Nitro jsou navrženy tak, aby vynucovaly přísná omezení, chránící citlivé pracovní zátěže AI a data před neoprávněným přístupem, a to i zevnitř AWS. Jeho schopnost provádět aktualizace firmwaru a optimalizace za provozu dále zvyšuje bezpečnost a stabilitu, které jsou nezbytné pro produkční AI, analytické a grafické pracovní zátěže.
Další zlepšení výkonu, zejména u masivních modelů AI, představuje akcelerace propojení pro disagregovanou dedukci LLM. S neustálým růstem velikosti modelů se komunikační režie mezi GPU nebo instancemi AWS Trainium může stát významnou překážkou. AWS oznámila podporu NVIDIA Inference Xfer Library (NIXL) s AWS Elastic Fabric Adapter (EFA), navrženou pro urychlení disagregované dedukce LLM na Amazon EC2, pokrývající jak GPU NVIDIA, tak AWS Trainium. Tato integrace je životně důležitá pro škálování moderních pracovních zátěží AI, umožňuje efektivní překrývání komunikace a výpočtů, minimalizuje latenci a maximalizuje [využití GPU](/cs/gpus). Usnadňuje pohyb dat KV-cache s vysokou propustností a nízkou latencí mezi výpočetními uzly a distribuovanými paměťovými zdroji. NIXL s EFA se nativně integruje s populárními open-source frameworky, jako jsou NVIDIA Dynamo, vLLM a SGLang, a poskytuje vylepšenou latenci mezi tokeny a efektivnější využití paměti KV-cache.
## Akcelerace datové analýzy s Amazon EMR a GPU
Datoví inženýři a vědci se často potýkají s dlouhými datovými zpracovatelskými procesy, které mohou významně bránit iteraci modelů AI/ML a generování business intelligence. Spolupráce AWS a NVIDIA přináší průlomové zlepšení: 3x rychlejší výkon pro pracovní zátěže Apache Spark. Tohoto zrychlení je dosaženo využitím Amazon EMR na Amazon EKS s instancemi G7e, poháněnými GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
Tento podstatný nárůst výkonu je přímým výsledkem společného inženýrského úsilí zaměřeného na optimalizaci GPU-akcelerované analýzy. S Amazon EMR a instancemi G7e mohou organizace dramaticky zkrátit čas potřebný pro inženýrství funkcí AI/ML, komplexní transformace ETL a analýzy v reálném čase ve velkém měřítku. Zákazníci provozující rozsáhlé datové zpracovatelské procesy mohou dosáhnout rychlejšího získávání poznatků při zachování plné kompatibility s jejich stávajícími aplikacemi Spark.
## Rozšíření podpory modelů NVIDIA Nemotron na Amazon Bedrock
AWS a NVIDIA rovněž rozšiřují svou spolupráci v oblasti základních modelů a přinášejí pokročilé modely NVIDIA Nemotron na Amazon Bedrock.
Vývojáři budou brzy moci jemně doladit modely NVIDIA Nemotron přímo na Amazon Bedrock pomocí Reinforcement Fine-Tuning (RFT). To je zásadní změna pro týmy, které potřebují přizpůsobit chování modelu specifickým doménám, ať už v právu, zdravotnictví, financích nebo jiných specializovaných oblastech. RFT umožňuje uživatelům formovat, jak model uvažuje a reaguje, a posouvá se tak za pouhé získávání znalostí k nuancovanému behaviorálnímu sladění. Klíčové je, že to běží nativně na Amazon Bedrock, čímž se eliminuje režie infrastruktury – uživatelé definují úkol, poskytují zpětnou vazbu a Bedrock se postará o zbytek.
Dále, NVIDIA Nemotron 3 Super, hybridní model Mixture-of-Experts (MoE) vytvořený pro pracovní zátěže s více agenty a rozšířené uvažování, bude brzy k dispozici na Amazon Bedrock. Navržený tak, aby pomáhal agentům AI udržovat přesnost napříč komplexními, vícestupňovými pracovními postupy, bude Nemotron 3 Super pohánět různorodé případy použití zahrnující finance, kybernetickou bezpečnost, maloobchod a vývoj softwaru. Slibuje rychlou a nákladově efektivní dedukci prostřednictvím plně spravovaného API, což zjednodušuje nasazení sofistikovaných AI agentů.
Zde je shrnutí klíčových oznámení:
| Funkce/Integrace | Popis | Hlavní výhoda | Dostupnost |
| :-------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------------- | :---------------------------------------------------------------------------------- | :-------------------- |
| **Nasazení GPU** | Přes 1 milion GPU NVIDIA (architektury Blackwell, Rubin) napříč regiony AWS. | Masivní výpočetní škála pro všechny úlohy AI/ML, agentní AI. | Od roku 2026 |
| **Instance Amazon EC2** | Podpora GPU NVIDIA RTX PRO 4500 Blackwell Server Edition na EC2. | První podpora hlavního poskytovatele cloudu pro všestrannou AI, grafiku, analýzu. | Již brzy |
| **Dedukce LLM** | NVIDIA NIXL na AWS EFA pro akcelerovanou disagregovanou dedukci LLM napříč GPU a Trainium. | Minimalizovaná latence komunikace, maximalizované využití GPU pro LLM. | Oznámeno |
| **Výkon Apache Spark** | 3x rychlejší pracovní zátěže Spark na Amazon EMR na EKS s instancemi G7e (RTX PRO 6000). | Zrychlené získávání poznatků pro datovou analýzu, inženýrství funkcí. | Oznámeno |
| **Jemné doladění Nemotron** | Reinforcement Fine-Tuning (RFT) pro modely Nemotron přímo na Amazon Bedrock. | Doménově specifické sladění chování modelu bez režie infrastruktury. | Již brzy |
| **Nemotron 3 Super** | Hybridní model MoE pro víceagentní úlohy a rozšířené uvažování na Amazon Bedrock. | Rychlá, nákladově efektivní dedukce pro komplexní, vícestupňové AI úlohy. | Již brzy |
## Závazek k energetické účinnosti a udržitelné AI
Vzhledem k tomu, že pracovní zátěže AI exponenciálně rostou, stává se účinnost a udržitelnost podkladové infrastruktury prvořadá. Spolupráce rovněž zdůrazňuje společný závazek ke zlepšování energetické účinnosti. Výkon na watt již není jen metrikou udržitelnosti, ale významnou konkurenční výhodou v prostředí AI.
Na NVIDIA GTC 2026 se CSO Amazonu Kara Hurst připojila k dalším lídrům v oblasti udržitelnosti, aby prodiskutovali, jak AI zásadně transformuje podnikovou energii a infrastrukturu ve velkém měřítku. Tato diskuse podtrhuje zaměření na vývoj a nasazení AI řešení, která jsou nejen výkonná, ale také ekologicky zodpovědná, od datových center optimalizovaných jako aktivní účastníci sítě až po širší podnikové aplikace AI.
Často kladené dotazy
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.
Buďte v obraze
Dostávejte nejnovější AI zprávy do schránky.
