Code Velocity
Enterprise AI

AWS, NVIDIA produbljuju AI saradnju za ubrzavanje prebacivanja iz pilot projekta u proizvodnju

·5 min čitanja·AWS, NVIDIA·Originalni izvor
Podeli
Istaknuti logotipi AWS-a i NVIDIA-e, simbolizujući njihovu proširenu stratešku saradnju za ubrzavanje AI i inovacije.

title: "AWS, NVIDIA produbljuju AI saradnju za ubrzavanje prebacivanja iz pilot projekta u proizvodnju" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "sr" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Enterprise AI" keywords:

  • AWS
  • NVIDIA
  • ubrzanje AI
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • inferencija LLM
  • EFA
  • Apache Spark
  • Enterprise AI
  • AI u proizvodnji
  • Mašinsko učenje meta_description: "AWS i NVIDIA produbljuju svoju stratešku saradnju na GTC 2026, najavljujući ključne integracije za ubrzavanje AI od pilot projekta do proizvodnje, uključujući prošireno korišćenje GPU-ova, nove EC2 instance i podršku za Nemotron modele na Amazon Bedrocku." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Istaknuti logotipi AWS-a i NVIDIA-e, simbolizujući njihovu proširenu stratešku saradnju za ubrzavanje AI i inovacije." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Koji je primarni cilj proširene strateške saradnje između AWS-a i NVIDIA-e?" answer: "Saradnja ima za cilj da ubrza prelazak AI rešenja iz eksperimentalnih faza u proizvodna okruženja punog obima. To uključuje integraciju novih tehnologija i proširenje postojećih mogućnosti u oblasti ubrzanog računarstva, tehnologija međusobnog povezivanja, finog podešavanja modela i inferencije. Fokus je na omogućavanju korisnicima da grade i pokreću AI rešenja koja su pouzdana, visoko performantna u razmeri i usklađena sa sigurnosnim i regulatornim zahtevima preduzeća, na kraju vodeći ka značajnim poslovnim rezultatima kroz AI sisteme spremne za proizvodnju."
  • question: "Koja značajna proširenja GPU infrastrukture planira AWS u okviru ove saradnje?" answer: "Počevši od 2026. godine, AWS planira da implementira preko milion NVIDIA GPU-ova, uključujući arhitekture sledeće generacije Blackwell i Rubin, širom svojih globalnih cloud regiona. Ovo masovno proširenje učvršćuje poziciju AWS-a kao vodećeg pružaoca instanci baziranih na NVIDIA GPU-ovima, nudeći najširu kolekciju za različite AI/ML radne zadatke. Ovaj poboljšani kapacitet je ključan za podršku rastućoj potražnji za AI računarskom snagom, posebno za složene agentne AI sisteme koji zahtevaju ekstenzivnu računarsku moć."
  • question: "Kako će nove Amazon EC2 instance sa NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ovima koristiti korisnicima?" answer: "AWS je prvi veliki cloud provajder koji podržava NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ove na Amazon EC2 instancama. Ove instance su izuzetno raznovrsne, pogodne za širok spektar radnih zadataka kao što su analiza podataka, konverzaciona AI, generisanje sadržaja, sistemi preporuka, video striming i napredno renderovanje grafike. Izgrađene na AWS Nitro Systemu, nude poboljšanu efikasnost resursa, robusnu sigurnost i stabilnost, pružajući vrhunske performanse za zahtevne AI i grafičke aplikacije."
  • question: "Kako integracija NVIDIA NIXL-a sa AWS EFA poboljšava inferenciju velikih jezičkih modela (LLM)?" answer: "Integracija NVIDIA Inference Xfer Library (NIXL) sa AWS Elastic Fabric Adapterom (EFA) je dizajnirana da ubrza inferenciju disagregiranih LLM-ova na Amazon EC2, kako preko NVIDIA GPU-ova, tako i preko AWS Trainium instanci. Ovo je ključno za upravljanje komunikacionim opterećenjem kod velikih modela, omogućavajući efikasno preklapanje komunikacije i računanja, minimiziranje latencije i maksimiziranje iskorišćenosti GPU-a. Omogućava prenos KV-cache podataka visoke propusnosti i niske latencije i integriše se nativno sa popularnim open-source framework-ovima kao što su NVIDIA Dynamo, vLLM i SGLang."
  • question: "Koja su poboljšanja napravljena u performansama Apache Spark-a za analizu podataka?" answer: "Zajednički inženjerski napori AWS-a i NVIDIA-e rezultirali su 3x bržim performansama za radne zadatke Apache Spark-a. Ovo se postiže kombinovanjem Amazon EMR-a na Amazon EKS-u sa G7e instancama, koje pokreću NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ovi. Ovo značajno ubrzanje omogućava inženjerima i naučnicima za podatke da ubrzaju vreme do uvida za kritične zadatke kao što su inženjering funkcija za AI/ML, složene ETL transformacije i analitika u realnom vremenu, zadržavajući punu kompatibilnost sa postojećim Spark aplikacijama."
  • question: "Koja proširena podrška za NVIDIA Nemotron modele dolazi na Amazon Bedrock?" answer: "Amazon Bedrock će uskoro podržavati fino podešavanje NVIDIA Nemotron modela direktno koristeći Reinforcement Fine-Tuning (RFT). Ova mogućnost omogućava programerima da precizno usklade ponašanje modela sa specifičnim domenima kao što su pravo, zdravstvo ili finansije, bez troškova infrastrukture. Pored toga, NVIDIA Nemotron 3 Super, hibridni Mixture-of-Experts (MoE) model optimizovan za radne zadatke sa više agenata i prošireno rasuđivanje, takođe će biti dostupan na Amazon Bedrocku, pružajući brzu i ekonomičnu inferenciju putem potpuno upravljanog API-ja za složene, višestepene AI zadatke."
  • question: "Kako ova saradnja rešava pitanja energetske efikasnosti i održivosti u AI?" answer: "Saradnja prepoznaje rastući značaj energetske efikasnosti kako se AI radni zadaci povećavaju. Performanse po vatu se ističu ne samo kao metrika održivosti, već i kao konkurentska prednost. Članak ukazuje na sesiju NVIDIA GTC-a gde lideri održivosti, uključujući direktorku za održivost Amazona Karu Herst, razgovaraju o tome kako AI transformiše energiju i infrastrukturu preduzeća, naglašavajući napore ka održivijim AI praksama od data centara do širih AI aplikacija preduzeća."

# AWS, NVIDIA produbljuju AI saradnju za ubrzavanje prebacivanja iz pilot projekta u proizvodnju

Veštačka inteligencija (AI) transformiše industrije neviđenim tempom, ali prava vrednost leži ne samo u eksperimentisanju, već u uspešnom implementiranju i radu AI rešenja u proizvodnim okruženjima. Ovo zahteva robusne, skalabilne, sigurne i usklađene sisteme koji donose opipljive poslovne rezultate. Rešavajući ovu kritičnu potrebu, AWS i NVIDIA su na NVIDIA GTC 2026 najavili značajno proširenje svoje strateške saradnje, predstavljajući nove tehnološke integracije osmišljene da zadovolje rastuću potražnju za AI računarskom snagom i poguraju AI rešenja u realnu proizvodnju.

Produbljeno partnerstvo se fokusira na ubrzavanje svakog aspekta AI životnog ciklusa, od infrastrukture do implementacije modela. Ove integracije obuhvataju ključne oblasti uključujući ubrzano računarstvo, napredne tehnologije međusobnog povezivanja i pojednostavljeno fino podešavanje modela i inferenciju. Ključne najave uključuju:

*   Implementacija više od milion NVIDIA GPU-ova širom AWS regiona počevši od 2026. godine.
*   Podrška za NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ove na Amazon EC2, čineći AWS prvim velikim cloud provajderom koji ovo nudi.
*   Ubrzanje međusobnog povezivanja za disagregiranu inferenciju velikih jezičkih modela (LLM) korišćenjem NVIDIA NIXL-a na AWS Elastic Fabric Adapteru (EFA).
*   Dramatično 3x brže performanse za radne zadatke Apache Spark-a koristeći Amazon EMR na Amazon Elastic Kubernetes Service (Amazon EKS) sa Amazon EC2 G7e instancama, koje pokreću NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ovi.
*   Proširena podrška za NVIDIA Nemotron modele na Amazon Bedrocku, uključujući Reinforcement Fine-Tuning i Nemotron 3 Super model.

## Skaliranje AI infrastrukture sa poboljšanom NVIDIA GPU snagom

Temelj modernog AI-ja leži u moćnoj računarskoj infrastrukturi. Počevši od 2026. godine, AWS preuzima monumentalnu obavezu za napredak AI dodavanjem preko milion NVIDIA GPU-ova svojim globalnim cloud regionima. Ovo uključuje arhitekture GPU-ova sledeće generacije Blackwell i Rubin, osiguravajući da korisnici imaju pristup najnaprednijem dostupnom hardveru. AWS već poseduje najširu kolekciju instanci zasnovanih na NVIDIA GPU-ovima u industriji, opslužujući raznovrsne AI/ML radne zadatke, a ovo proširenje dodatno učvršćuje njegovo liderstvo.

Ovo dugogodišnje partnerstvo, koje traje više od 15 godina, takođe se proteže na ključne infrastrukturne oblasti kao što je Spectrum umrežavanje. Cilj je da se preduzećima, startupima i istraživačima obezbedi robusna infrastruktura potrebna za izgradnju i skaliranje naprednih [agentnih AI sistema](/sr/operationalizing-agentic-ai-part-1-a-stakeholders-guide)—AI sposobnog za autonomno rasuđivanje, planiranje i akciju kroz složene radne tokove.

## Predstavljanje novih Amazon EC2 instanci i inovacija u međusobnom povezivanju

Istaknut deo saradnje su predstojeće Amazon EC2 instance ubrzane NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ovima. AWS je ponosan što je prvi veliki cloud provajder koji najavljuje podršku za ove moćne GPU-ove, čineći ih dostupnim za širok spektar zahtevnih zadataka. Ove instance su idealno pogodne za analizu podataka, sofisticiranu konverzacionu AI, dinamičko generisanje sadržaja, napredne sisteme preporuka, visokokvalitetni video striming i složene grafičke radne zadatke.

Ove nove EC2 instance biće izgrađene na robusnom [AWS Nitro Systemu](https://aws.amazon.com/ec2/nitro/). Nitro System, sa svojom jedinstvenom kombinacijom namenskog hardvera i laganog hipervizora, isporučuje skoro sve računarske i memorijske resurse host hardvera direktno instancama. Ovaj dizajn obezbeđuje superiorno korišćenje resursa i performanse. Ključno, specijalizovani hardver, softver i firmware Nitro Sistema su projektovani da sprovode stroga ograničenja, štiteći osetljive AI radne zadatke i podatke od neovlašćenog pristupa, čak i unutar AWS-a. Njegova sposobnost da obavlja ažuriranja firmware-a i optimizacije dok je operativan dodatno poboljšava sigurnost i stabilnost ključnu za AI, analitičke i grafičke radne zadatke spremne za proizvodnju.

Dalje poboljšanje performansi, posebno za masivne AI modele, je ubrzanje međusobnih veza za disagregiranu inferenciju LLM-a. Kako veličine modela nastavljaju da rastu, komunikaciono opterećenje između GPU-ova ili AWS Trainium instanci može postati značajno usko grlo. AWS je najavio podršku za NVIDIA Inference Xfer Library (NIXL) sa AWS Elastic Fabric Adapterom (EFA), dizajniranu da ubrza disagregiranu inferenciju LLM-a na Amazon EC2, obuhvatajući i NVIDIA GPU-ove i AWS Trainium. Ova integracija je ključna za skaliranje modernih AI radnih zadataka, omogućavajući efikasno preklapanje komunikacije i računanja, minimiziranje latencije i maksimiziranje [iskorišćenosti GPU-a](/sr/gpus). Omogućava prenos KV-cache podataka visoke propusnosti i niske latencije između računarskih čvorova i distribuiranih memorijskih resursa. NIXL sa EFA se nativno integriše sa popularnim open-source framework-ovima kao što su NVIDIA Dynamo, vLLM i SGLang, pružajući poboljšanu inter-token latenciju i efikasnije korišćenje KV-cache memorije.

## Ubrzavanje analize podataka sa Amazon EMR-om i GPU-ovima

Inženjeri i naučnici za podatke često se bore sa dugim cevovodima za obradu podataka koji mogu značajno ometati iteraciju AI/ML modela i generisanje poslovne inteligencije. Saradnja AWS-a i NVIDIA-e donosi revolucionarno poboljšanje: 3x brže performanse za radne zadatke Apache Spark-a. Ovo ubrzanje se postiže korišćenjem Amazon EMR-a na Amazon EKS-u sa G7e instancama, koje pokreću NVIDIA-ini RTX PRO 6000 Blackwell Server Edition GPU-ovi.

Ovo značajno povećanje performansi direktan je rezultat zajedničkih inženjerskih napora fokusiranih na optimizaciju analitike ubrzane GPU-om. Sa Amazon EMR-om i G7e instancama, organizacije mogu dramatično smanjiti vreme potrebno za inženjering funkcija za AI/ML, složene ETL transformacije i analitiku u realnom vremenu u razmeri. Korisnici koji pokreću cevovode za obradu podataka velikih razmera mogu postići brže vreme do uvida, zadržavajući punu kompatibilnost sa svojim postojećim Spark aplikacijama.

## Proširenje podrške za NVIDIA Nemotron modele na Amazon Bedrocku

AWS i NVIDIA takođe proširuju svoju saradnju na fundamentalnim modelima, donoseći napredne NVIDIA Nemotron modele na Amazon Bedrock.

Programeri će uskoro imati mogućnost da fino podešavaju NVIDIA Nemotron modele direktno na Amazon Bedrocku koristeći Reinforcement Fine-Tuning (RFT). Ovo menja pravila igre za timove koji treba da prilagode ponašanje modela specifičnim domenima, bilo da je reč o pravu, zdravstvu, finansijama ili drugim specijalizovanim oblastima. RFT omogućava korisnicima da oblikuju način na koji model rasuđuje i reaguje, prelazeći od pukog sticanja znanja do nijansiranog usklađivanja ponašanja. Ključno, ovo se izvršava nativno na Amazon Bedrocku, eliminišući troškove infrastrukture – korisnici definišu zadatak, pružaju povratne informacije, a Bedrock upravlja ostalim.

Pored toga, NVIDIA Nemotron 3 Super, hibridni Mixture-of-Experts (MoE) model izgrađen za radne zadatke sa više agenata i prošireno rasuđivanje, takođe uskoro dolazi na Amazon Bedrock. Projektovan da pomogne AI agentima da održe tačnost kroz složene, višestepene radne tokove, Nemotron 3 Super će pokretati različite slučajeve upotrebe koji obuhvataju finansije, sajber sigurnost, maloprodaju i razvoj softvera. Obećava brzu, ekonomičnu inferenciju putem potpuno upravljanog API-ja, pojednostavljujući implementaciju sofisticiranih AI agenata.

Evo rezimea ključnih najava:

| Funkcija/Integracija          | Opis                                                                                                                                              | Primarna prednost                                                                   | Dostupnost            |
| :---------------------------- | :------------------------------------------------------------------------------------------------------------------------------------------------ | :---------------------------------------------------------------------------------- | :-------------------- |
| **Implementacija GPU-ova**    | Preko milion NVIDIA GPU-ova (Blackwell, Rubin arhitekture) širom AWS regiona.                                                                     | Masivna računarska skala za sve AI/ML radne zadatke, agentnu AI.                    | Počevši od 2026.      |
| **Amazon EC2 Instance**       | Podrška za NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ove na EC2.                                                                           | Prva velika podrška cloud provajdera za raznovrsnu AI, grafiku, analitiku.         | Uskoro                |
| **LLM Inferencija**           | NVIDIA NIXL na AWS EFA za ubrzanu disagregiranu LLM inferenciju preko GPU-ova i Trainium-a.                                                       | Minimizirana latencija komunikacije, maksimizirana iskorišćenost GPU-a za LLM-ove. | Najavljeno            |
| **Performanse Apache Spark-a** | 3x brži Spark radni zadaci na Amazon EMR-u na EKS-u sa G7e instancama (RTX PRO 6000).                                                            | Ubrzano vreme do uvida za analizu podataka, inženjering funkcija.                   | Najavljeno            |
| **Nemotron Fino podešavanje** | Reinforcement Fine-Tuning (RFT) za Nemotron modele direktno na Amazon Bedrocku.                                                                   | Usklađivanje ponašanja modela specifičnih za domen bez troškova infrastrukture.     | Uskoro                |
| **Nemotron 3 Super**          | Hibridni MoE model za radne zadatke sa više agenata i prošireno rasuđivanje na Amazon Bedrocku.                                                    | Brza, ekonomična inferencija za složene, višestepene AI zadatke.                    | Uskoro                |

## Posvećenost energetskoj efikasnosti i održivoj AI

Kako AI radni zadaci nastavljaju da rastu eksponencijalno, efikasnost i održivost osnovne infrastrukture postaju od najveće važnosti. Saradnja takođe ističe zajedničku posvećenost poboljšanju energetske efikasnosti. Performanse po vatu više nisu samo metrika održivosti, već značajna konkurentska prednost u AI pejzažu.

Na NVIDIA GTC 2026, direktorka za održivost Amazona Kara Herst pridružila se drugim liderima za održivost kako bi razgovarala o tome kako AI fundamentalno transformiše energiju i infrastrukturu preduzeća u velikoj razmeri. Ova diskusija naglašava fokus na razvoju i implementaciji AI rešenja koja su ne samo moćna, već i ekološki odgovorna, od data centara optimizovanih kao aktivni učesnici mreže do širih AI aplikacija preduzeća. Ovaj napredni pristup osigurava da su napreci u AI računarstvu usklađeni sa globalnim ciljevima održivosti.

Često postavljana pitanja

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Будите у току

Примајте најновије AI вести на имејл.

Podeli