Code Velocity
Poslovna umjetna inteligencija

AWS i NVIDIA produbljuju suradnju na području umjetne inteligencije za ubrzanje proizvodnje

·5 min čitanja·AWS, NVIDIA·Izvorni izvor
Podijeli
Logotipi AWS-a i NVIDIA-e istaknuto prikazani, simbolizirajući njihovu proširenu stratešku suradnju za ubrzanje i inovacije u području umjetne inteligencije.

AWS, NVIDIA produbljuju suradnju na području umjetne inteligencije za ubrzanje proizvodnje od pilot projekata do pune primjene

Umjetna inteligencija transformira industrije neviđenom brzinom, ali prava vrijednost ne leži samo u eksperimentiranju, već u uspješnom implementiranju i operiranju AI rješenja u proizvodnim okruženjima. To zahtijeva robusne, skalabilne, sigurne i usklađene sustave koji donose opipljive poslovne rezultate. Rješavajući ovu kritičnu potrebu, AWS i NVIDIA najavili su značajno proširenje svoje strateške suradnje na NVIDIA GTC 2026, otkrivajući nove tehnološke integracije osmišljene da zadovolje rastuću potražnju za AI računarstvom i poguraju AI rješenja u stvarnu proizvodnju.

Produbljeno partnerstvo usredotočeno je na ubrzanje svakog aspekta AI životnog ciklusa, od infrastrukture do implementacije modela. Ove integracije obuhvaćaju ključna područja uključujući ubrzano računarstvo, napredne tehnologije međupovezivanja te pojednostavljeno fino podešavanje modela i inferenciju. Ključne najave uključuju:

  • Implementaciju više od milijun NVIDIA GPU-ova u AWS regijama počevši od 2026.
  • Amazon EC2 podršku za NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ove, čime AWS postaje prvi veliki pružatelj usluga u oblaku koji ovo nudi.
  • Ubrzanje međupovezivanja za deagregiranu inferenciju velikih jezičnih modela (LLM) koristeći NVIDIA NIXL na AWS Elastic Fabric Adapteru (EFA).
  • Dramatično 3 puta brže performanse za Apache Spark radne zadatke koristeći Amazon EMR na Amazon Elastic Kubernetes Serviceu (Amazon EKS) s Amazon EC2 G7e instancama, pokretanim NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ovima.
  • Proširenu podršku za NVIDIA Nemotron modele na Amazon Bedrocku, uključujući Reinforcement Fine-Tuning i Nemotron 3 Super model.

Skaliranje AI infrastrukture s poboljšanom NVIDIA GPU snagom

Temelj moderne umjetne inteligencije leži u moćnoj računalnoj infrastrukturi. Počevši od 2026. godine, AWS se monumentalno posvećuje napretku AI-ja dodavanjem preko milijun NVIDIA GPU-ova u svoje globalne oblačne regije. To uključuje sljedeću generaciju Blackwell i Rubin GPU arhitektura, osiguravajući korisnicima pristup najnaprednijem hardveru koji je dostupan. AWS se već ponosi najširom kolekcijom instanci temeljenih na NVIDIA GPU-u u industriji, zadovoljavajući raznolik spektar AI/ML radnih zadataka, a ovo proširenje dodatno učvršćuje njegovo vodstvo.

Ovo dugogodišnje partnerstvo, koje traje više od 15 godina, proteže se i na ključna infrastrukturna područja poput Spectrum umrežavanja. Cilj je pružiti poduzećima, startupima i istraživačima robusnu infrastrukturu potrebnu za izgradnju i skaliranje naprednih Agentnih AI sustava—AI sposobnih za autonomno rasuđivanje, planiranje i djelovanje kroz složene radne procese.

Predstavljanje novih Amazon EC2 instanci i inovacija u međupovezivanju

Istaknuta značajka suradnje su nadolazeće Amazon EC2 instance ubrzane NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ovima. AWS s ponosom objavljuje da je prvi veliki pružatelj usluga u oblaku koji najavljuje podršku za ove moćne GPU-ove, čineći ih dostupnima za širok raspon zahtjevnih zadataka. Ove instance su idealno prikladne za analizu podataka, sofisticiranu konverzacijsku AI, dinamično generiranje sadržaja, napredne sustave preporuka, visokokvalitetni video streaming i složene grafičke radne zadatke.

Ove nove EC2 instance bit će izgrađene na robusnom AWS Nitro Sustavu. Nitro Sustav, sa svojom jedinstvenom kombinacijom namjenskog hardvera i laganog hipervizora, isporučuje gotovo sve računalne i memorijske resurse host hardvera izravno instancama. Ovaj dizajn osigurava superiorno iskorištenje resursa i performanse. Ključno, specijalizirani hardver, softver i firmware Nitro Sustava dizajnirani su za provođenje strogih ograničenja, štiteći osjetljive AI radne zadatke i podatke od neovlaštenog pristupa, čak i iznutra AWS-a. Njegova sposobnost izvođenja ažuriranja firmwarea i optimizacija dok je u pogonu dodatno poboljšava sigurnost i stabilnost bitnu za proizvodnju AI, analitičkih i grafičkih radnih zadataka.

Daljnje poboljšanje performansi, posebno za masivne AI modele, je ubrzanje međupovezivanja za deagregiranu inferenciju LLM-a. Kako veličina modela nastavlja rasti, komunikacijsko opterećenje između GPU-ova ili AWS Trainium instanci može postati značajno usko grlo. AWS je najavio podršku za NVIDIA Inference Xfer Library (NIXL) s AWS Elastic Fabric Adapterom (EFA), dizajniranu za ubrzanje deagregirane inferencije LLM-a na Amazon EC2, obuhvaćajući i NVIDIA GPU-ove i AWS Trainium. Ova integracija je ključna za skaliranje modernih AI radnih zadataka, omogućavajući učinkovito preklapanje komunikacije i računanja, minimiziranje kašnjenja i maksimiziranje iskorištenosti GPU-a. Olakšava kretanje KV-cache podataka visoke propusnosti i niske latencije između računalnih čvorova i distribuiranih memorijskih resursa. NIXL s EFA-om nativno se integrira s popularnim otvorenim okvirima kao što su NVIDIA Dynamo, vLLM i SGLang, pružajući poboljšanu inter-token latenciju i učinkovitije korištenje KV-cache memorije.

Ubrzanje analize podataka s Amazon EMR-om i GPU-ovima

Inženjeri i znanstvenici za podatke često se bore s dugim cjevovodima za obradu podataka koji mogu značajno ometati iteraciju AI/ML modela i generiranje poslovnih uvida. Suradnja AWS-a i NVIDIA-e donosi revolucionarno poboljšanje: 3 puta brže performanse za Apache Spark radne zadatke. Ovo ubrzanje postiže se korištenjem Amazon EMR-a na Amazon EKS-u s G7e instancama, pokretanim NVIDIA-inim RTX PRO 6000 Blackwell Server Edition GPU-ovima.

Ovaj značajan dobitak u performansama izravan je rezultat zajedničkih inženjerskih napora usmjerenih na optimizaciju analitike ubrzane GPU-om. S Amazon EMR-om i G7e instancama, organizacije mogu dramatično smanjiti vrijeme potrebno za inženjering značajki AI/ML-a, složene ETL transformacije i analitiku u stvarnom vremenu u velikim razmjerima. Korisnici koji pokreću cjevovode za obradu podataka velikih razmjera mogu postići brže vrijeme do uvida uz potpunu kompatibilnost sa svojim postojećim Spark aplikacijama.

Proširena podrška za NVIDIA Nemotron modele na Amazon Bedrocku

AWS i NVIDIA također proširuju svoju suradnju na temeljnim modelima, donoseći napredne NVIDIA Nemotron modele na Amazon Bedrock.

Razvojni programeri uskoro će imati mogućnost finog podešavanja NVIDIA Nemotron modela izravno na Amazon Bedrocku koristeći Reinforcement Fine-Tuning (RFT). To je revolucionarno za timove koji trebaju prilagoditi ponašanje modela specifičnim domenama, bilo u pravu, zdravstvu, financijama ili drugim specijaliziranim područjima. RFT omogućuje korisnicima da oblikuju kako model razmišlja i reagira, prelazeći izvan samog stjecanja znanja do nijansiranog usklađivanja ponašanja. Ključno, ovo se pokreće nativno na Amazon Bedrocku, eliminirajući infrastrukturne troškove – korisnici definiraju zadatak, pružaju povratne informacije, a Bedrock upravlja ostalim.

Nadalje, NVIDIA Nemotron 3 Super, hibridni model Mixture-of-Experts (MoE) izgrađen za višesagentne radne zadatke i prošireno rasuđivanje, također uskoro dolazi na Amazon Bedrock. Dizajniran da pomogne AI agentima da održe točnost kroz složene, višestupanjske radne procese, Nemotron 3 Super pokretat će razne slučajeve upotrebe koji obuhvaćaju financije, kibernetičku sigurnost, maloprodaju i razvoj softvera. Obećava brzu, isplativu inferenciju putem potpuno upravljanog API-ja, pojednostavljujući implementaciju sofisticiranih AI agenata.

Evo sažetka ključnih najava:

Značajka/IntegracijaOpisPrimarna koristDostupnost
Implementacija GPU-aPreko milijun NVIDIA GPU-ova (arhitekture Blackwell, Rubin) u AWS regijama.Masivna računalna skala za sve AI/ML radne zadatke, agentna AI.Počevši od 2026.
Amazon EC2 instancePodrška za NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ove na EC2.Prva podrška velikog pružatelja usluga u oblaku za svestranu AI, grafiku, analitiku.Uskoro
Inferencija LLM-aNVIDIA NIXL na AWS EFA za ubrzanu deagregiranu inferenciju LLM-a preko GPU-ova i Trainiuma.Minimizirana latencija komunikacije, maksimizirana iskorištenost GPU-a za LLM-ove.Najavljeno
Performanse Apache Sparka3 puta brži Spark radni zadaci na Amazon EMR-u na EKS-u s G7e instancama (RTX PRO 6000).Ubrzano vrijeme do uvida za analizu podataka, inženjering značajki.Najavljeno
Fino podešavanje NemotronaReinforcement Fine-Tuning (RFT) za Nemotron modele izravno na Amazon Bedrocku.Usklađivanje ponašanja modela specifičnog za domenu bez infrastrukturnih troškova.Uskoro
Nemotron 3 SuperHibridni MoE model za višesagentne radne zadatke i prošireno rasuđivanje na Amazon Bedrocku.Brza, isplativa inferencija za složene, višestupanjske AI zadatke.Uskoro

Predanost energetskoj učinkovitosti i održivoj AI

Kako AI radni zadaci nastavljaju eksponencijalno rasti, učinkovitost i održivost temeljne infrastrukture postaju od najveće važnosti. Suradnja također naglašava zajedničku predanost poboljšanju energetske učinkovitosti. Performanse po vatu više nisu samo metrika održivosti, već značajna konkurentska prednost u AI krajoliku.

Na NVIDIA GTC 2026, Amazon CSO Kara Hurst pridružila se drugim liderima održivosti kako bi raspravljali o tome kako AI fundamentalno transformira energetiku i infrastrukturu poduzeća u velikim razmjerima. Ova rasprava podcrtava fokus na razvoju i implementaciji AI rješenja koja nisu samo moćna, već i ekološki odgovorna, od podatkovnih centara optimiziranih kao aktivni sudionici mreže do širih poslovnih AI aplikacija. Ovaj napredan pristup osigurava da su napredak u AI računarstvu usklađen s globalnim ciljevima održivosti.

Često postavljana pitanja

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli