Code Velocity
Ettevõtte tehisintellekt

AWS ja NVIDIA süvendavad tehisintellekti koostööd tootmise kiirendamiseks

·5 min lugemist·AWS, NVIDIA·Algallikas
Jaga
AWS-i ja NVIDIA logod silmapaistvalt kuvatud, sümboliseerides nende laiendatud strateegilist koostööd tehisintellekti kiirendamise ja innovatsiooni valdkonnas.

AWS ja NVIDIA süvendavad tehisintellekti koostööd, et kiirendada arendust pilootprojektist tootmisse

Tehisintellekt muudab tööstusharusid enneolematu tempoga, kuid selle tõeline väärtus ei seisne mitte ainult eksperimenteerimises, vaid tehisintellekti lahenduste edukas juurutamises ja käitamises tootmiskeskkondades. See nõuab vastupidavaid, skaleeritavaid, turvalisi ja nõuetele vastavaid süsteeme, mis pakuvad käegakatsutavaid äritulemusi. Selle kriitilise vajaduse rahuldamiseks teatasid AWS ja NVIDIA oma strateegilise koostöö märkimisväärsest laiendamisest NVIDIA GTC 2026 konverentsil, avalikustades uued tehnoloogiaintegratsioonid, mis on loodud vastama tehisintellekti arvutusvõimsuse kasvavale nõudlusele ja viima tehisintellekti lahendused reaalsesse tootmisse.

Süvendatud partnerlus keskendub tehisintellekti elutsükli iga aspekti kiirendamisele, alates infrastruktuurist kuni mudelite juurutamiseni. Need integratsioonid hõlmavad olulisi valdkondi, sealhulgas kiirendatud andmetöötlust, täiustatud ühendustehnoloogiaid ning sujuvaks muudetud mudelite peenhäälestust ja järeldamist. Peamised teadaanded hõlmavad järgmist:

  • Alates 2026. aastast üle 1 miljoni NVIDIA GPU juurutamine AWS-i regioonidesse.
  • Amazon EC2 tugi NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-dele, tehes AWS-ist esimese suure pilveteenuse pakkuja, kes seda pakub.
  • Ühenduste kiirendamine hajutatud suurte keelemudelite (LLM) järelduste tegemiseks, kasutades NVIDIA NIXL-i AWS Elastic Fabric Adapteril (EFA).
  • Märkimisväärne 3 korda kiirem jõudlus Apache Sparki töökoormustele, kasutades Amazon EMR-i Amazon Elastic Kubernetes Service'is (Amazon EKS) koos Amazon EC2 G7e instantsidega, mida toetavad NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-d.
  • Laiendatud NVIDIA Nemotroni mudeli tugi Amazon Bedrockis, sealhulgas tugevdatud peenhäälestus (Reinforcement Fine-Tuning) ja Nemotron 3 Super mudel.

Tehisintellekti infrastruktuuri mastaapimine täiustatud NVIDIA GPU võimsusega

Kaasaegse tehisintellekti alus seisneb võimsas arvutusinfrastruktuuris. Alates 2026. aastast teeb AWS tohutu panuse tehisintellekti arengusse, lisades oma globaalsetesse pilveregioonidesse üle 1 miljoni NVIDIA GPU. See hõlmab järgmise põlvkonna Blackwelli ja Rubini GPU-arhitektuure, tagades klientidele juurdepääsu kõige arenenumale saadaolevale riistvarale. AWS uhkeldab juba praegu tööstuse kõige laiema NVIDIA GPU-põhiste instantside kollektsiooniga, mis teenindab mitmekesiseid AI/ML töökoormusi, ja see laienemine kinnitab veelgi tema juhtpositsiooni.

See enam kui 15 aastat kestnud pikaajaline partnerlus laieneb ka kriitilistele infrastruktuurivaldkondadele, nagu Spectrumi võrgustik. Eesmärk on pakkuda ettevõtetele, idufirmadele ja teadlastele vajalikku tugevat infrastruktuuri täiustatud agentse tehisintellekti süsteemide loomiseks ja skaleerimiseks – tehisintellekt, mis on võimeline autonoomselt arutlema, planeerima ja tegutsema keerulistes töövoogudes.

Tutvustatakse uusi Amazon EC2 instante ja ühenduste innovatsioone

Koostöö esiletõst on peagi valmivad Amazon EC2 instantsid, mida kiirendavad NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-d. AWS on uhke, et on esimene suur pilveteenuse pakkuja, kes teatab nende võimsate GPU-de toe kohta, muutes need kättesaadavaks paljude nõudlike ülesannete jaoks. Need instantsid sobivad ideaalselt andmeanalüüsiks, keerukaks vestlus-AI-ks, dünaamilise sisu genereerimiseks, täiustatud soovitussüsteemideks, kvaliteetseks videovoogedastuseks ja keerukateks graafikakoormusteks.

Need uued EC2 instantsid ehitatakse tugevale AWS Nitro süsteemile. Nitro süsteem, oma unikaalse spetsiaalse riistvara ja kerge hüpervisori kombinatsiooniga, pakub peaaegu kõiki hosti riistvara arvutus- ja mäluresursse otse instantsidele. See disain tagab parema ressursside kasutamise ja jõudluse. Oluline on see, et Nitro süsteemi spetsiaalne riistvara, tarkvara ja püsivara on loodud rangete piirangute jõustamiseks, kaitstes tundlikke tehisintellekti töökoormusi ja andmeid volitamata juurdepääsu eest, isegi AWS-i seest. Selle võime teha püsivara uuendusi ja optimeerimisi operatsiooni ajal parandab veelgi turvalisust ja stabiilsust, mis on oluline tootmiskvaliteediga tehisintellekti, analüütika ja graafika töökoormuste jaoks.

Jõudluse edasine parandamine, eriti massiivsete tehisintellekti mudelite puhul, on hajutatud suurte keelemudelite (LLM) järelduste ühenduste kiirendamine. Mudelite suuruse pideval kasvamisel võib GPU-de või AWS Trainium instantside vaheline kommunikatsioonikulu muutuda märkimisväärseks kitsaskohaks. AWS teatas NVIDIA Inference Xfer Library (NIXL) toetusest AWS Elastic Fabric Adapteriga (EFA), mis on loodud kiirendama hajutatud suurte keelemudelite järeldamist Amazon EC2-s, hõlmates nii NVIDIA GPU-sid kui ka AWS Trainiumi. See integratsioon on eluliselt tähtis kaasaegsete tehisintellekti töökoormuste skaleerimiseks, võimaldades tõhusat kommunikatsiooni ja arvutuste kattumist, minimeerides latentsust ja maksimeerides GPU kasutusastet. See hõlbustab suure läbilaskevõimega ja madala latentsusega KV-vahemälu andmete liikumist arvutussõlmede ja hajutatud mäluressursside vahel. NIXL koos EFA-ga integreerub sujuvalt populaarsete avatud lähtekoodiga raamistikega, nagu NVIDIA Dynamo, vLLM ja SGLang, pakkudes paremat inter-tokeni latentsust ja tõhusamat KV-vahemälu mälu kasutust.

Andmeanalüüsi kiirendamine Amazon EMR-i ja GPU-dega

Andmeinsenerid ja teadlased maadlevad sageli pikkade andmetöötlustorudega, mis võivad oluliselt takistada AI/ML mudeli iteratsiooni ja äriteabe genereerimist. AWS-i ja NVIDIA koostöö pakub murrangulist edasiminekut: 3 korda kiiremat jõudlust Apache Sparki töökoormustele. See kiirendus saavutatakse, kasutades Amazon EMR-i Amazon EKS-is koos G7e instantsidega, mida toetavad NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-d.

See märkimisväärne jõudluse kasv on otsene tulemus ühistest inseneritöö jõupingutustest, mis keskenduvad GPU-ga kiirendatud analüütika optimeerimisele. Amazon EMR-i ja G7e instantsidega saavad organisatsioonid drastiliselt vähendada AI/ML tunnuste kujundamise, keerukate ETL-i teisenduste ja reaalajas analüüsi aega suurel skaalal. Suuremahulisi andmetöötlustorusid käitavad kliendid saavad kiiremini teavet, säilitades samal ajal täieliku ühilduvuse oma olemasolevate Sparki rakendustega.

NVIDIA Nemotroni mudeli toe laiendamine Amazon Bedrockis

AWS ja NVIDIA laiendavad ka oma koostööd fundamentaalsete mudelite osas, tuues Amazon Bedrocki täiustatud NVIDIA Nemotroni mudelid.

Arendajatel on peagi võimalus täpsustada NVIDIA Nemotroni mudeleid otse Amazon Bedrockis, kasutades tugevdatud peenhäälestust (RFT). See on mängumuutja meeskondadele, kes peavad kohandama mudeli käitumist konkreetsetele valdkondadele, olgu selleks siis õigus, tervishoid, rahandus või muud erialad. RFT annab kasutajatele võimaluse kujundada, kuidas mudel arutleb ja reageerib, liikudes pelgalt teadmiste omandamisest peenemale käitumuslikule kohandamisele. Oluline on see, et see töötab Amazon Bedrockis algupäraselt, kõrvaldades infrastruktuuri kulud – kasutajad määratlevad ülesande, annavad tagasisidet ja Bedrock haldab ülejäänut.

Lisaks on Amazon Bedrocki peagi tulemas ka NVIDIA Nemotron 3 Super, hübriidne ekspertide segu (MoE) mudel, mis on loodud mitme agendi töökoormuste ja laiendatud arutluskäikude jaoks. Kavandatud aitama tehisintellekti agentidel säilitada täpsust keerukates, mitmeastmelistes töövoogudes, annab Nemotron 3 Super jõudu mitmekesistele kasutusjuhtudele, hõlmates rahandust, küberturvalisust, jaekaubandust ja tarkvaraarendust. See lubab kiiret ja kulutõhusat järeldamist täielikult hallatava API kaudu, lihtsustades keerukate tehisintellekti agentide juurutamist.

Siin on peamiste teadaannete kokkuvõte:

Funktsioon/IntegratsioonKirjeldusPeamine kasuSaadavus
GPU juurutamineÜle 1 miljoni NVIDIA GPU (Blackwelli, Rubini arhitektuurid) AWS-i regioonides.Massiivne arvutusvõimsus kõikidele AI/ML töökoormustele, agentsele AI-le.Alates 2026. aastast
Amazon EC2 instantsidTugi NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-dele EC2-s.Esimese suure pilveteenuse pakkuja tugi mitmekülgsele AI-le, graafikale, analüütikale.Peagi tulemas
LLM järeldamineNVIDIA NIXL AWS EFA-l hajutatud LLM järelduste kiirendamiseks GPU-de ja Trainiumide vahel.Minimeeritud kommunikatsioonilatsents, maksimeeritud GPU kasutus LLM-ide jaoks.Välja kuulutatud
Apache Sparki jõudlus3 korda kiiremad Sparki töökoormused Amazon EMR-is EKS-il G7e instantsidega (RTX PRO 6000).Kiirendatud teadmiste saamise aeg andmeanalüüsi, tunnuste kujundamise jaoks.Välja kuulutatud
Nemotroni peenhäälestusTugevdatud peenhäälestus (RFT) Nemotroni mudelite jaoks otse Amazon Bedrockis.Valdkonnaspetsiifiline mudeli käitumise kohandamine ilma infrastruktuurikuludeta.Peagi tulemas
Nemotron 3 SuperHübriidne MoE mudel mitme agendi töökoormuste ja laiendatud arutluskäikude jaoks Amazon Bedrockis.Kiire, kulutõhus järeldamine keerukate, mitmeastmeliste AI ülesannete jaoks.Peagi tulemas

Pühendumus energiatõhususele ja jätkusuutlikule tehisintellektile

Kuna tehisintellekti töökoormused kasvavad jätkuvalt eksponentsiaalselt, muutub alusinfra tõhusus ja jätkusuutlikkus ülioluliseks. Koostöö rõhutab ka ühist pühendumust energiatõhususe parandamisele. Jõudlus vati kohta ei ole enam ainult jätkusuutlikkuse mõõdik, vaid ka oluline konkurentsieelis tehisintellekti maastikul.

NVIDIA GTC 2026-l ühines Amazoni peajätkusuutlikkuse ametnik (CSO) Kara Hurst teiste jätkusuutlikkuse juhtidega, et arutada, kuidas tehisintellekt muudab põhimõtteliselt ettevõtte energiat ja infrastruktuuri suurel skaalal. See arutelu rõhutab keskendumist tehisintellekti lahenduste arendamisele ja juurutamisele, mis ei ole mitte ainult võimsad, vaid ka keskkonnasõbralikud, alates andmekeskustest, mis on optimeeritud aktiivseteks võrgu osalejateks, kuni laiemate ettevõtte tehisintellekti rakendusteni. See ettenägelik lähenemine tagab, et tehisintellekti arvutusvõimsuse edusammud on kooskõlas globaalsete jätkusuutlikkuse eesmärkidega.

Korduma kippuvad küsimused

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga