Code Velocity
Įmonių dirbtinis intelektas

AWS, NVIDIA gilina DI bendradarbiavimą gamybos spartinimui

·5 min skaitymo·AWS, NVIDIA·Originalus šaltinis
Dalintis
Aiškiai matomi AWS ir NVIDIA logotipai, simbolizuojantys išplėstą strateginį bendradarbiavimą DI spartinimo ir inovacijų srityje.

title: "AWS, NVIDIA gilina DI bendradarbiavimą gamybos spartinimui" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "lt" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Įmonių dirbtinis intelektas" keywords:

  • AWS
  • NVIDIA
  • DI spartinimas
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • LLM išvada
  • EFA
  • Apache Spark
  • Įmonių DI
  • Gamybos DI
  • Mašininis mokymasis meta_description: "AWS ir NVIDIA gilina strateginį bendradarbiavimą GTC 2026, pranešdami apie svarbias integracijas, skirtas paspartinti DI nuo bandomosios versijos iki gamybos, įskaitant išplėstą GPU diegimą, naujus EC2 egzempliorius ir Nemotron modelio palaikymą Amazon Bedrock platformoje." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Aiškiai matomi AWS ir NVIDIA logotipai, simbolizuojantys išplėstą strateginį bendradarbiavimą DI spartinimo ir inovacijų srityje." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Koks yra pagrindinis išplėsto strateginio AWS ir NVIDIA bendradarbiavimo tikslas?" answer: "Bendradarbiavimo tikslas – paspartinti DI sprendimų perėjimą nuo eksperimentinių etapų prie visapusiškos gamybos aplinkų. Tai apima naujų technologijų integravimą ir esamų galimybių plėtimą spartaus skaičiavimo, tarpusavio jungčių technologijų, modelių tikslinimo ir išvadų darymo srityse. Pagrindinis dėmesys skiriamas tam, kad klientai galėtų kurti ir paleisti patikimus, didelio masto našumą užtikrinančius ir įmonių saugumo bei reguliavimo reikalavimus atitinkančius DI sprendimus, galiausiai pasiekiant reikšmingų verslo rezultatų naudojant gamybai paruoštas DI sistemas."
  • question: "Kokie reikšmingi GPU infrastruktūros plėtros planai numatyti AWS, vykdant šį bendradarbiavimą?" answer: "Nuo 2026 m. AWS planuoja dislokuoti daugiau nei 1 milijoną NVIDIA GPU, įskaitant naujos kartos Blackwell ir Rubin architektūras, visuose savo pasauliniuose debesų regionuose. Ši didžiulė plėtra sustiprina AWS poziciją kaip pirmaujančio NVIDIA GPU pagrindu veikiančių egzempliorių tiekėjo, siūlančio plačiausią kolekciją įvairioms DI/ML darbo apkrovoms. Šis padidintas pajėgumas yra labai svarbus, siekiant patenkinti didėjantį DI skaičiavimo poreikį, ypač sudėtingoms agentinėms DI sistemoms, kurioms reikia didelės skaičiavimo galios."
  • question: "Kaip nauji Amazon EC2 egzemplioriai su NVIDIA RTX PRO 4500 Blackwell Server Edition GPU bus naudingi vartotojams?" answer: "AWS yra pirmasis didelis debesų paslaugų teikėjas, palaikantis NVIDIA RTX PRO 4500 Blackwell Server Edition GPU Amazon EC2 egzemplioriuose. Šie egzemplioriai yra labai universalūs, tinkami plačiam darbo krūvių spektrui, pvz., duomenų analizei, pokalbių DI, turinio generavimui, rekomendavimo sistemoms, vaizdo transliacijoms ir pažangiam grafikos atvaizdavimui. Sukurti ant AWS Nitro sistemos, jie siūlo padidintą resursų efektyvumą, tvirtą saugumą ir stabilumą, užtikrindami puikų našumą reiklioms DI ir grafikos programoms."
  • question: "Kaip NVIDIA NIXL integravimas su AWS EFA pagerina didelių kalbos modelių (LLM) išvadų darymą?" answer: "NVIDIA Inference Xfer Library (NIXL) integravimas su AWS Elastic Fabric Adapter (EFA) skirtas paspartinti atskirtą LLM išvadų darymą Amazon EC2 platformoje, tiek naudojant NVIDIA GPU, tiek AWS Trainium egzempliorius. Tai labai svarbu valdant didelių modelių ryšio režiminį prarają, leidžiant efektyviai persidengti ryšio ir skaičiavimo procesams, minimizuojant vėlavimą ir maksimizuojant GPU panaudojimą. Tai palengvina didelio pralaidumo, mažo vėlavimo KV-cache duomenų judėjimą ir integruojasi su populiariomis atvirojo kodo sistemomis, tokiomis kaip NVIDIA Dynamo, vLLM ir SGLang."
  • question: "Kokie patobulinimai atliekami „Apache Spark“ našumui duomenų analizei?" answer: "Bendros AWS ir NVIDIA inžinerijos pastangos lėmė 3 kartus greitesnį „Apache Spark“ darbo krūvių atlikimą. Tai pasiekiama sujungus „Amazon EMR“ „Amazon EKS“ su G7e egzemplioriais, kuriuos palaiko NVIDIA RTX PRO 6000 Blackwell Server Edition GPU. Šis reikšmingas pagreitis leidžia duomenų inžinieriams ir mokslininkams paspartinti įžvalgų gavimą atliekant kritines užduotis, tokias kaip DI/ML funkcijų inžinerija, sudėtingos ETL transformacijos ir realaus laiko analizė, išlaikant visišką suderinamumą su esamomis „Spark“ programomis."
  • question: "Koks išplėstas NVIDIA Nemotron modelio palaikymas bus prieinamas „Amazon Bedrock“ platformoje?" answer: "„Amazon Bedrock“ netrukus palaikys NVIDIA Nemotron modelių tikslinimą tiesiogiai naudojant sustiprinantį tikslinimą (Reinforcement Fine-Tuning, RFT). Ši galimybė leidžia kūrėjams tiksliai suderinti modelio elgseną su konkrečiomis sritimis, tokiomis kaip teisė, sveikatos priežiūra ar finansai, be infrastruktūros sąnaudų. Be to, NVIDIA Nemotron 3 Super, hibridinis ekspertų mišinio (Mixture-of-Experts, MoE) modelis, optimizuotas kelių agentų darbo krūviams ir išplėstiniam mąstymui, taip pat bus prieinamas „Amazon Bedrock“ platformoje, užtikrinant greitą ir ekonomišką išvadų darymą per visiškai valdomą API, skirtą sudėtingoms, daugiapakopėms DI užduotims."
  • question: "Kaip šis bendradarbiavimas sprendžia energijos efektyvumo ir tvarumo klausimus DI srityje?" answer: "Bendradarbiavimas pripažįsta didėjantį energijos efektyvumo svarbą didėjant DI darbo krūviams. Našumas vienam vatui pabrėžiamas ne tik kaip tvarumo metrika, bet ir kaip konkurencinis pranašumas DI aplinkoje. Straipsnyje nurodoma NVIDIA GTC sesija, kurioje tvarumo lyderiai, įskaitant „Amazon“ vyriausiąją tvarumo pareigūnę Kara Hurst, aptaria, kaip DI iš esmės transformuoja įmonės energiją ir infrastruktūrą dideliu mastu, pabrėždami pastangas siekti tvaresnės DI praktikos nuo duomenų centrų iki platesnių įmonės DI programų."

AWS, NVIDIA gilina DI bendradarbiavimą siekiant paspartinti gamybą nuo bandomosios versijos iki serijinės gamybos

Dirbtinis intelektas (DI) transformuoja pramonės šakas precedento neturinčiu greičiu, tačiau tikroji vertė slypi ne tik eksperimentuose, bet ir sėkmingame DI sprendimų diegime bei veikimo užtikrinime gamybos aplinkose. Tam reikalingos patikimos, mastelį didinančios, saugios ir reikalavimus atitinkančios sistemos, kurios užtikrina apčiuopiamus verslo rezultatus. Atsižvelgdamos į šį kritinį poreikį, AWS ir NVIDIA paskelbė apie reikšmingą savo strateginio bendradarbiavimo išplėtimą NVIDIA GTC 2026 metu, pristatydamos naujas technologijų integracijas, skirtas patenkinti didėjantį DI skaičiavimo poreikį ir perkelti DI sprendimus į realią gamybą.

Pagilinta partnerystė sutelkta į kiekvieno DI gyvavimo ciklo aspekto spartinimą, nuo infrastruktūros iki modelio diegimo. Šios integracijos apima svarbias sritis, įskaitant spartųjį skaičiavimą, pažangias tarpusavio jungčių technologijas ir supaprastintą modelių tikslinimą bei išvadų darymą. Pagrindiniai pranešimai apima:

  • Daugiau nei 1 milijono NVIDIA GPU dislokavimas AWS regionuose, pradedant 2026 m.
  • Amazon EC2 palaikymas NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, paverčiantis AWS pirmuoju dideliu debesų paslaugų teikėju, siūlančiu tai.
  • Tarpusavio jungties spartinimas atskirtų didelių kalbos modelių (LLM) išvadų darymui, naudojant NVIDIA NIXL ant AWS Elastic Fabric Adapter (EFA).
  • Įspūdingas 3 kartus didesnis našumas „Apache Spark“ darbo krūviams, naudojant „Amazon EMR“ „Amazon Elastic Kubernetes Service“ (Amazon EKS) su Amazon EC2 G7e egzemplioriais, palaikomais NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
  • Išplėstas NVIDIA Nemotron modelio palaikymas „Amazon Bedrock“ platformoje, įskaitant sustiprinantį tikslinimą (Reinforcement Fine-Tuning) ir Nemotron 3 Super modelį.

DI infrastruktūros mastelio didinimas naudojant patobulintą NVIDIA GPU galią

Šiuolaikinio DI pagrindas – galinga skaičiavimo infrastruktūra. Nuo 2026 m. AWS imasi monumentalaus įsipareigojimo DI pažangai, pridėdama daugiau nei 1 milijoną NVIDIA GPU prie savo pasaulinių debesų regionų. Tai apima naujos kartos Blackwell ir Rubin GPU architektūras, užtikrinančias, kad klientai turėtų prieigą prie pažangiausios turimos techninės įrangos. AWS jau dabar gali pasigirti plačiausia pramonėje NVIDIA GPU pagrindu veikiančių egzempliorių kolekcija, tenkinančia įvairius DI/ML darbo krūvius, o ši plėtra dar labiau sustiprina jos lyderystę.

Ši ilgalaikė partnerystė, besitęsianti daugiau nei 15 metų, taip pat apima svarbias infrastruktūros sritis, tokias kaip Spectrum tinklai. Tikslas yra suteikti įmonėms, startuoliams ir tyrėjams patikimą infrastruktūrą, reikalingą kurti ir didinti pažangių Agentinių DI sistemų mastelį – DI, galinčio autonomiškai samprotauti, planuoti ir veikti sudėtinguose darbo procesuose.

Pristatomi nauji Amazon EC2 egzemplioriai ir tarpusavio jungčių inovacijos

Vienas svarbiausių bendradarbiavimo akcentų yra būsimi Amazon EC2 egzemplioriai, pagreitinti NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS didžiuojasi būdama pirmuoju dideliu debesų paslaugų teikėju, paskelbusiu apie šių galingų GPU palaikymą, padarant juos prieinamus plačiam reiklių užduočių spektrui. Šie egzemplioriai idealiai tinka duomenų analizei, sudėtingam pokalbių DI, dinamiškam turinio generavimui, pažangioms rekomendavimo sistemoms, aukštos kokybės vaizdo transliacijoms ir sudėtingiems grafikos darbo krūviams.

Šie nauji EC2 egzemplioriai bus kuriami ant patikimos AWS Nitro sistemos. Nitro sistema, turinti unikalų dedikuotos techninės įrangos ir lengvo hipervizoriaus derinį, perduoda beveik visus pagrindinės techninės įrangos skaičiavimo ir atminties resursus tiesiai egzemplioriams. Šis dizainas užtikrina puikų resursų panaudojimą ir našumą. Labai svarbu, kad Nitro sistemos specializuota techninė įranga, programinė įranga ir programinė-aparatinė įranga yra suprojektuota taip, kad užtikrintų griežtus apribojimus, apsaugodama jautrius DI darbo krūvius ir duomenis nuo neteisėtos prieigos, net ir iš AWS. Jos gebėjimas atlikti programinės įrangos atnaujinimus ir optimizavimus veikimo metu dar labiau padidina saugumą ir stabilumą, būtinus gamybinio lygio DI, analizės ir grafikos darbo krūviams.

Dar labiau padidinant našumą, ypač didžiuliams DI modeliams, yra tarpusavio jungčių spartinimas atskirtam LLM išvadų darymui. Kadangi modelių dydžiai ir toliau auga, ryšio režiminis praradimas tarp GPU ar AWS Trainium egzempliorių gali tapti reikšmingu kliūtimi. AWS paskelbė apie NVIDIA Inference Xfer Library (NIXL) palaikymą su AWS Elastic Fabric Adapter (EFA), skirtu paspartinti atskirtą LLM išvadų darymą Amazon EC2, apimant tiek NVIDIA GPU, tiek AWS Trainium. Ši integracija yra gyvybiškai svarbi didinant šiuolaikinių DI darbo krūvių mastelį, leidžianti efektyviai persidengti ryšio ir skaičiavimo procesams, minimizuojant vėlavimą ir maksimizuojant GPU panaudojimą. Ji palengvina didelio pralaidumo, mažo vėlavimo KV-cache duomenų judėjimą tarp skaičiavimo mazgų ir paskirstytų atminties resursų. NIXL su EFA integruojasi su populiariomis atvirojo kodo sistemomis, tokiomis kaip NVIDIA Dynamo, vLLM ir SGLang, užtikrindama pagerintą vėlavimą tarp žetonų ir efektyvesnį KV-cache atminties panaudojimą.

Duomenų analizės spartinimas naudojant Amazon EMR ir GPU

Duomenų inžinieriai ir mokslininkai dažnai susiduria su ilgais duomenų apdorojimo procesais, kurie gali reikšmingai trukdyti DI/ML modelių iteracijai ir verslo įžvalgų generavimui. AWS ir NVIDIA bendradarbiavimas užtikrina proveržio lygio patobulinimą: 3 kartus greitesnį „Apache Spark“ darbo krūvių našumą. Šis pagreitis pasiekiamas naudojant „Amazon EMR“ „Amazon EKS“ su G7e egzemplioriais, palaikomais NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.

Šis reikšmingas našumo padidėjimas yra tiesioginis bendrų inžinerijos pastangų rezultatas, sutelktų į GPU pagreitintos analizės optimizavimą. Naudodamos „Amazon EMR“ ir G7e egzempliorius, organizacijos gali žymiai sutrumpinti laiką, reikalingą DI/ML funkcijų inžinerijai, sudėtingoms ETL transformacijoms ir realaus laiko analizei dideliu mastu. Klientai, vykdantys didelio masto duomenų apdorojimo procesus, gali greičiau gauti įžvalgas, išlaikydami visišką suderinamumą su esamomis „Spark“ programomis.

NVIDIA Nemotron modelio palaikymo išplėtimas „Amazon Bedrock“ platformoje

AWS ir NVIDIA taip pat plečia savo bendradarbiavimą pagrindinių modelių srityje, perkeldamos pažangius NVIDIA Nemotron modelius į „Amazon Bedrock“.

Kūrėjai netrukus turės galimybę tikslinti NVIDIA Nemotron modelius tiesiogiai „Amazon Bedrock“ platformoje, naudojant sustiprinantį tikslinimą (Reinforcement Fine-Tuning, RFT). Tai yra esminis pokytis komandoms, kurioms reikia pritaikyti modelio elgseną konkrečioms sritims, nesvarbu, ar tai būtų teisė, sveikatos priežiūra, finansai ar kitos specializuotos sritys. RFT leidžia vartotojams formuoti, kaip modelis samprotauja ir reaguoja, pereinant nuo paprasto žinių įgijimo prie niuansuoto elgsenos suderinimo. Labai svarbu, kad tai veiktų gimtojoje „Amazon Bedrock“ aplinkoje, pašalinant infrastruktūros sąnaudas – vartotojai apibrėžia užduotį, teikia grįžtamąjį ryšį, o „Bedrock“ tvarko visa kita.

Be to, NVIDIA Nemotron 3 Super, hibridinis ekspertų mišinio (Mixture-of-Experts, MoE) modelis, sukurtas kelių agentų darbo krūviams ir išplėstiniam mąstymui, taip pat netrukus bus prieinamas „Amazon Bedrock“ platformoje. Sukurtas padėti DI agentams išlaikyti tikslumą sudėtinguose, daugiapakopiuose darbo procesuose, Nemotron 3 Super bus naudojamas įvairiems atvejams, apimantiems finansus, kibernetinį saugumą, mažmeninę prekybą ir programinės įrangos kūrimą. Jis žada greitą, ekonomišką išvadų darymą per visiškai valdomą API, supaprastindamas sudėtingų DI agentų diegimą.

Štai pagrindinių pranešimų santrauka:

Funkcija / IntegracijaAprašymasPagrindinė naudaPrieinamumas
GPU dislokavimasDaugiau nei 1 milijonas NVIDIA GPU (Blackwell, Rubin architektūros) visuose AWS regionuose.Milžiniškas skaičiavimo mastas visoms DI/ML darbo apkrovoms, agentiniam DI.Nuo 2026 m.
Amazon EC2 egzemplioriaiNVIDIA RTX PRO 4500 Blackwell Server Edition GPU palaikymas EC2 platformoje.Pirmasis didelis debesų paslaugų teikėjas, palaikantis universalų DI, grafiką, analizę.Netrukus
LLM išvadaNVIDIA NIXL ant AWS EFA, skirtas pagreitintam atskirtam LLM išvadų darymui per GPU ir Trainiums.Sumažintas ryšio vėlavimas, maksimalus GPU panaudojimas LLM.Paskelbta
Apache Spark našumas3 kartus greitesnės Spark darbo apkrovos ant Amazon EMR ant EKS su G7e egzemplioriais (RTX PRO 6000).Spartesnis įžvalgų gavimas duomenų analizei, funkcijų inžinerijai.Paskelbta
Nemotron tikslinimasSustiprinantis tikslinimas (RFT) Nemotron modeliams tiesiogiai ant Amazon Bedrock.Domeno specifikos modelio elgsenos suderinimas be infrastruktūros sąnaudų.Netrukus
Nemotron 3 SuperHibridinis MoE modelis kelių agentų darbo apkrovoms ir išplėstiniam samprotavimui ant Amazon Bedrock.Greitas, ekonomiškas išvadų darymas sudėtingoms, daugiapakopėms DI užduotims.Netrukus

Įsipareigojimas energijos efektyvumui ir tvariam DI

Kadangi DI darbo krūviai ir toliau auga eksponentiškai, pagrindinės infrastruktūros efektyvumas ir tvarumas tampa itin svarbūs. Bendradarbiavimas taip pat pabrėžia bendrą įsipareigojimą gerinti energijos efektyvumą. Našumas vienam vatui nebėra tik tvarumo metrika, bet ir reikšmingas konkurencinis pranašumas DI aplinkoje.

NVIDIA GTC 2026 metu „Amazon“ vyriausioji tvarumo pareigūnė Kara Hurst prisijungė prie kitų tvarumo lyderių, kad aptartų, kaip DI iš esmės transformuoja įmonių energiją ir infrastruktūrą dideliu mastu. Ši diskusija pabrėžia dėmesį, skiriamą DI sprendimų kūrimui ir diegimui, kurie yra ne tik galingi, bet ir atsakingi aplinkos atžvilgiu, nuo duomenų centrų, optimizuotų kaip aktyvūs tinklo dalyviai, iki platesnių įmonių DI programų.

Dažniausiai užduodami klausimai

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis