AWS ja NVIDIA süvendavad tehisintellekti koostööd, et kiirendada arendust pilootprojektist tootmisse
Tehisintellekt muudab tööstusharusid enneolematu tempoga, kuid selle tõeline väärtus ei seisne mitte ainult eksperimenteerimises, vaid tehisintellekti lahenduste edukas juurutamises ja käitamises tootmiskeskkondades. See nõuab vastupidavaid, skaleeritavaid, turvalisi ja nõuetele vastavaid süsteeme, mis pakuvad käegakatsutavaid äritulemusi. Selle kriitilise vajaduse rahuldamiseks teatasid AWS ja NVIDIA oma strateegilise koostöö märkimisväärsest laiendamisest NVIDIA GTC 2026 konverentsil, avalikustades uued tehnoloogiaintegratsioonid, mis on loodud vastama tehisintellekti arvutusvõimsuse kasvavale nõudlusele ja viima tehisintellekti lahendused reaalsesse tootmisse.
Süvendatud partnerlus keskendub tehisintellekti elutsükli iga aspekti kiirendamisele, alates infrastruktuurist kuni mudelite juurutamiseni. Need integratsioonid hõlmavad olulisi valdkondi, sealhulgas kiirendatud andmetöötlust, täiustatud ühendustehnoloogiaid ning sujuvaks muudetud mudelite peenhäälestust ja järeldamist. Peamised teadaanded hõlmavad järgmist:
- Alates 2026. aastast üle 1 miljoni NVIDIA GPU juurutamine AWS-i regioonidesse.
- Amazon EC2 tugi NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-dele, tehes AWS-ist esimese suure pilveteenuse pakkuja, kes seda pakub.
- Ühenduste kiirendamine hajutatud suurte keelemudelite (LLM) järelduste tegemiseks, kasutades NVIDIA NIXL-i AWS Elastic Fabric Adapteril (EFA).
- Märkimisväärne 3 korda kiirem jõudlus Apache Sparki töökoormustele, kasutades Amazon EMR-i Amazon Elastic Kubernetes Service'is (Amazon EKS) koos Amazon EC2 G7e instantsidega, mida toetavad NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-d.
- Laiendatud NVIDIA Nemotroni mudeli tugi Amazon Bedrockis, sealhulgas tugevdatud peenhäälestus (Reinforcement Fine-Tuning) ja Nemotron 3 Super mudel.
Tehisintellekti infrastruktuuri mastaapimine täiustatud NVIDIA GPU võimsusega
Kaasaegse tehisintellekti alus seisneb võimsas arvutusinfrastruktuuris. Alates 2026. aastast teeb AWS tohutu panuse tehisintellekti arengusse, lisades oma globaalsetesse pilveregioonidesse üle 1 miljoni NVIDIA GPU. See hõlmab järgmise põlvkonna Blackwelli ja Rubini GPU-arhitektuure, tagades klientidele juurdepääsu kõige arenenumale saadaolevale riistvarale. AWS uhkeldab juba praegu tööstuse kõige laiema NVIDIA GPU-põhiste instantside kollektsiooniga, mis teenindab mitmekesiseid AI/ML töökoormusi, ja see laienemine kinnitab veelgi tema juhtpositsiooni.
See enam kui 15 aastat kestnud pikaajaline partnerlus laieneb ka kriitilistele infrastruktuurivaldkondadele, nagu Spectrumi võrgustik. Eesmärk on pakkuda ettevõtetele, idufirmadele ja teadlastele vajalikku tugevat infrastruktuuri täiustatud agentse tehisintellekti süsteemide loomiseks ja skaleerimiseks – tehisintellekt, mis on võimeline autonoomselt arutlema, planeerima ja tegutsema keerulistes töövoogudes.
Tutvustatakse uusi Amazon EC2 instante ja ühenduste innovatsioone
Koostöö esiletõst on peagi valmivad Amazon EC2 instantsid, mida kiirendavad NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-d. AWS on uhke, et on esimene suur pilveteenuse pakkuja, kes teatab nende võimsate GPU-de toe kohta, muutes need kättesaadavaks paljude nõudlike ülesannete jaoks. Need instantsid sobivad ideaalselt andmeanalüüsiks, keerukaks vestlus-AI-ks, dünaamilise sisu genereerimiseks, täiustatud soovitussüsteemideks, kvaliteetseks videovoogedastuseks ja keerukateks graafikakoormusteks.
Need uued EC2 instantsid ehitatakse tugevale AWS Nitro süsteemile. Nitro süsteem, oma unikaalse spetsiaalse riistvara ja kerge hüpervisori kombinatsiooniga, pakub peaaegu kõiki hosti riistvara arvutus- ja mäluresursse otse instantsidele. See disain tagab parema ressursside kasutamise ja jõudluse. Oluline on see, et Nitro süsteemi spetsiaalne riistvara, tarkvara ja püsivara on loodud rangete piirangute jõustamiseks, kaitstes tundlikke tehisintellekti töökoormusi ja andmeid volitamata juurdepääsu eest, isegi AWS-i seest. Selle võime teha püsivara uuendusi ja optimeerimisi operatsiooni ajal parandab veelgi turvalisust ja stabiilsust, mis on oluline tootmiskvaliteediga tehisintellekti, analüütika ja graafika töökoormuste jaoks.
Jõudluse edasine parandamine, eriti massiivsete tehisintellekti mudelite puhul, on hajutatud suurte keelemudelite (LLM) järelduste ühenduste kiirendamine. Mudelite suuruse pideval kasvamisel võib GPU-de või AWS Trainium instantside vaheline kommunikatsioonikulu muutuda märkimisväärseks kitsaskohaks. AWS teatas NVIDIA Inference Xfer Library (NIXL) toetusest AWS Elastic Fabric Adapteriga (EFA), mis on loodud kiirendama hajutatud suurte keelemudelite järeldamist Amazon EC2-s, hõlmates nii NVIDIA GPU-sid kui ka AWS Trainiumi. See integratsioon on eluliselt tähtis kaasaegsete tehisintellekti töökoormuste skaleerimiseks, võimaldades tõhusat kommunikatsiooni ja arvutuste kattumist, minimeerides latentsust ja maksimeerides GPU kasutusastet. See hõlbustab suure läbilaskevõimega ja madala latentsusega KV-vahemälu andmete liikumist arvutussõlmede ja hajutatud mäluressursside vahel. NIXL koos EFA-ga integreerub sujuvalt populaarsete avatud lähtekoodiga raamistikega, nagu NVIDIA Dynamo, vLLM ja SGLang, pakkudes paremat inter-tokeni latentsust ja tõhusamat KV-vahemälu mälu kasutust.
Andmeanalüüsi kiirendamine Amazon EMR-i ja GPU-dega
Andmeinsenerid ja teadlased maadlevad sageli pikkade andmetöötlustorudega, mis võivad oluliselt takistada AI/ML mudeli iteratsiooni ja äriteabe genereerimist. AWS-i ja NVIDIA koostöö pakub murrangulist edasiminekut: 3 korda kiiremat jõudlust Apache Sparki töökoormustele. See kiirendus saavutatakse, kasutades Amazon EMR-i Amazon EKS-is koos G7e instantsidega, mida toetavad NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-d.
See märkimisväärne jõudluse kasv on otsene tulemus ühistest inseneritöö jõupingutustest, mis keskenduvad GPU-ga kiirendatud analüütika optimeerimisele. Amazon EMR-i ja G7e instantsidega saavad organisatsioonid drastiliselt vähendada AI/ML tunnuste kujundamise, keerukate ETL-i teisenduste ja reaalajas analüüsi aega suurel skaalal. Suuremahulisi andmetöötlustorusid käitavad kliendid saavad kiiremini teavet, säilitades samal ajal täieliku ühilduvuse oma olemasolevate Sparki rakendustega.
NVIDIA Nemotroni mudeli toe laiendamine Amazon Bedrockis
AWS ja NVIDIA laiendavad ka oma koostööd fundamentaalsete mudelite osas, tuues Amazon Bedrocki täiustatud NVIDIA Nemotroni mudelid.
Arendajatel on peagi võimalus täpsustada NVIDIA Nemotroni mudeleid otse Amazon Bedrockis, kasutades tugevdatud peenhäälestust (RFT). See on mängumuutja meeskondadele, kes peavad kohandama mudeli käitumist konkreetsetele valdkondadele, olgu selleks siis õigus, tervishoid, rahandus või muud erialad. RFT annab kasutajatele võimaluse kujundada, kuidas mudel arutleb ja reageerib, liikudes pelgalt teadmiste omandamisest peenemale käitumuslikule kohandamisele. Oluline on see, et see töötab Amazon Bedrockis algupäraselt, kõrvaldades infrastruktuuri kulud – kasutajad määratlevad ülesande, annavad tagasisidet ja Bedrock haldab ülejäänut.
Lisaks on Amazon Bedrocki peagi tulemas ka NVIDIA Nemotron 3 Super, hübriidne ekspertide segu (MoE) mudel, mis on loodud mitme agendi töökoormuste ja laiendatud arutluskäikude jaoks. Kavandatud aitama tehisintellekti agentidel säilitada täpsust keerukates, mitmeastmelistes töövoogudes, annab Nemotron 3 Super jõudu mitmekesistele kasutusjuhtudele, hõlmates rahandust, küberturvalisust, jaekaubandust ja tarkvaraarendust. See lubab kiiret ja kulutõhusat järeldamist täielikult hallatava API kaudu, lihtsustades keerukate tehisintellekti agentide juurutamist.
Siin on peamiste teadaannete kokkuvõte:
| Funktsioon/Integratsioon | Kirjeldus | Peamine kasu | Saadavus |
|---|---|---|---|
| GPU juurutamine | Üle 1 miljoni NVIDIA GPU (Blackwelli, Rubini arhitektuurid) AWS-i regioonides. | Massiivne arvutusvõimsus kõikidele AI/ML töökoormustele, agentsele AI-le. | Alates 2026. aastast |
| Amazon EC2 instantsid | Tugi NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-dele EC2-s. | Esimese suure pilveteenuse pakkuja tugi mitmekülgsele AI-le, graafikale, analüütikale. | Peagi tulemas |
| LLM järeldamine | NVIDIA NIXL AWS EFA-l hajutatud LLM järelduste kiirendamiseks GPU-de ja Trainiumide vahel. | Minimeeritud kommunikatsioonilatsents, maksimeeritud GPU kasutus LLM-ide jaoks. | Välja kuulutatud |
| Apache Sparki jõudlus | 3 korda kiiremad Sparki töökoormused Amazon EMR-is EKS-il G7e instantsidega (RTX PRO 6000). | Kiirendatud teadmiste saamise aeg andmeanalüüsi, tunnuste kujundamise jaoks. | Välja kuulutatud |
| Nemotroni peenhäälestus | Tugevdatud peenhäälestus (RFT) Nemotroni mudelite jaoks otse Amazon Bedrockis. | Valdkonnaspetsiifiline mudeli käitumise kohandamine ilma infrastruktuurikuludeta. | Peagi tulemas |
| Nemotron 3 Super | Hübriidne MoE mudel mitme agendi töökoormuste ja laiendatud arutluskäikude jaoks Amazon Bedrockis. | Kiire, kulutõhus järeldamine keerukate, mitmeastmeliste AI ülesannete jaoks. | Peagi tulemas |
Pühendumus energiatõhususele ja jätkusuutlikule tehisintellektile
Kuna tehisintellekti töökoormused kasvavad jätkuvalt eksponentsiaalselt, muutub alusinfra tõhusus ja jätkusuutlikkus ülioluliseks. Koostöö rõhutab ka ühist pühendumust energiatõhususe parandamisele. Jõudlus vati kohta ei ole enam ainult jätkusuutlikkuse mõõdik, vaid ka oluline konkurentsieelis tehisintellekti maastikul.
NVIDIA GTC 2026-l ühines Amazoni peajätkusuutlikkuse ametnik (CSO) Kara Hurst teiste jätkusuutlikkuse juhtidega, et arutada, kuidas tehisintellekt muudab põhimõtteliselt ettevõtte energiat ja infrastruktuuri suurel skaalal. See arutelu rõhutab keskendumist tehisintellekti lahenduste arendamisele ja juurutamisele, mis ei ole mitte ainult võimsad, vaid ka keskkonnasõbralikud, alates andmekeskustest, mis on optimeeritud aktiivseteks võrgu osalejateks, kuni laiemate ettevõtte tehisintellekti rakendusteni. See ettenägelik lähenemine tagab, et tehisintellekti arvutusvõimsuse edusammud on kooskõlas globaalsete jätkusuutlikkuse eesmärkidega.
Korduma kippuvad küsimused
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Püsige kursis
Saage värskeimad AI uudised oma postkasti.
