Code Velocity
Enterprise AI

AWS, NVIDIA Nagpapalalim ng Kolaborasyon sa AI para Pabilisin ang AI Mula sa Pilot Hanggang Produksyon

·5 min basahin·AWS, NVIDIA·Orihinal na pinagmulan
I-share
Ang mga logo ng AWS at NVIDIA na kitang-kita, sumisimbolo sa kanilang pinalawak na estratehikong kolaborasyon para sa pagpapabilis at inobasyon ng AI.

AWS, NVIDIA Nagpapalalim ng Kolaborasyon sa AI para Pabilisin ang AI Mula sa Pilot Hanggang Produksyon

Ang AI ay nagbabago ng mga industriya sa isang hindi pa nakikitang bilis, ngunit ang tunay na halaga ay hindi lamang nasa pag-eksperimento, kundi sa matagumpay na pag-deploy at pagpapatakbo ng mga solusyon sa AI sa mga kapaligiran ng produksyon. Nangangailangan ito ng matibay, nasusukat, secure, at sumusunod na mga sistema na nagbibigay ng kapansin-pansing resulta sa negosyo. Bilang tugon sa kritikal na pangangailangan na ito, inihayag ng AWS at NVIDIA ang isang malaking pagpapalawak ng kanilang estratehikong kolaborasyon sa NVIDIA GTC 2026, na nagbubunyag ng mga bagong integrasyon ng teknolohiya na idinisenyo upang matugunan ang tumataas na pangangailangan para sa AI compute at itulak ang mga solusyon sa AI sa tunay na produksyon.

Ang pinalalim na partnership ay nakatuon sa pagpapabilis ng bawat aspeto ng AI lifecycle, mula sa imprastraktura hanggang sa pag-deploy ng modelo. Ang mga integrasyon na ito ay sumasaklaw sa mahahalagang lugar kabilang ang accelerated computing, advanced interconnect technologies, at pinasimpleng model fine-tuning at inference. Kabilang sa mga pangunahing anunsyo ang:

  • Ang pag-deploy ng mahigit 1 milyong NVIDIA GPU sa buong AWS Regions simula sa 2026.
  • Suporta ng Amazon EC2 para sa NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs, na ginagawang ang AWS ang kauna-unahang pangunahing cloud provider na nag-aalok nito.
  • Pagpapabilis ng interconnect para sa disaggregated Large Language Model (LLM) inference gamit ang NVIDIA NIXL sa AWS Elastic Fabric Adapter (EFA).
  • Isang napakabilis na 3x na mas mabilis na performance para sa Apache Spark workloads gamit ang Amazon EMR sa Amazon Elastic Kubernetes Service (Amazon EKS) na may mga Amazon EC2 G7e instance, pinapagana ng NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.
  • Pinalawak na suporta sa modelo ng NVIDIA Nemotron sa Amazon Bedrock, kabilang ang Reinforcement Fine-Tuning at ang Nemotron 3 Super model.

Pagpapalaki ng Imprastraktura ng AI gamit ang Pinahusay na Lakas ng NVIDIA GPU

Ang pundasyon ng modernong AI ay nakasalalay sa makapangyarihang imprastraktura ng compute. Simula sa 2026, gumagawa ang AWS ng isang napakalaking pangako sa pag-unlad ng AI sa pamamagitan ng pagdaragdag ng mahigit 1 milyong NVIDIA GPU sa mga global cloud regions nito. Kabilang dito ang susunod na henerasyong Blackwell at Rubin GPU architectures, na tinitiyak na may access ang mga customer sa pinaka-advanced na hardware na available. Ipinagmamalaki na ng AWS ang pinakamalawak na koleksyon sa industriya ng mga instance na batay sa NVIDIA GPU, na tumutugon sa iba't ibang uri ng AI/ML workloads, at ang pagpapalawak na ito ay lalong nagpapatatag sa pamumuno nito.

Ang matagal nang partnership na ito, na sumasaklaw ng mahigit 15 taon, ay lumalawak din sa mahahalagang lugar ng imprastraktura tulad ng Spectrum networking. Layunin nito na bigyan ang mga enterprise, startup, at researcher ng matatag na imprastraktura na kinakailangan upang bumuo at palakihin ang mga advanced na mga sistemang Agentic AI—AI na may kakayahang mag-isip, magplano, at kumilos nang awtonomo sa mga kumplikadong workflow.

Ipinakikilala ang Bagong Amazon EC2 Instances at Interconnect Innovations

Ang isang highlight ng kolaborasyon ay ang paparating na Amazon EC2 instances na pinapabilis ng NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs. Ipinagmamalaki ng AWS na maging ang kauna-unahang pangunahing cloud provider na nag-aanunsyo ng suporta para sa mga makapangyarihang GPU na ito, na ginagawang accessible ang mga ito para sa malawak na hanay ng mga mapanuring gawain. Ang mga instance na ito ay mainam para sa data analytics, sopistikadong conversational AI, dynamic na content generation, advanced recommender systems, high-quality video streaming, at mga kumplikadong graphics workloads.

Ang mga bagong EC2 instance na ito ay itatayo sa matibay na AWS Nitro System. Ang Nitro System, kasama ang natatanging kombinasyon ng dedikadong hardware at isang lightweight hypervisor, ay nagbibigay ng halos lahat ng compute at memory resources ng host hardware nang direkta sa mga instance. Ang disenyong ito ay nagsisiguro ng superyor na paggamit ng resource at performance. Higit sa lahat, ang espesyal na hardware, software, at firmware ng Nitro System ay idinisenyo upang ipatupad ang mahigpit na paghihigpit, na nagpoprotekta sa sensitibong AI workloads at data mula sa hindi awtorisadong pag-access, kahit mula sa loob ng AWS. Ang kakayahan nitong magsagawa ng firmware updates at optimizations habang nagpapatakbo ay lalong nagpapahusay sa seguridad at katatagan na mahalaga para sa production-grade AI, analytics, at graphics workloads.

Lalong pinapahusay ang performance, partikular para sa malalaking AI models, ang pagpapabilis ng mga interconnect para sa disaggregated LLM inference. Habang patuloy na lumalaki ang laki ng modelo, ang communication overhead sa pagitan ng mga GPU o AWS Trainium instance ay maaaring maging isang malaking bottleneck. Inanunsyo ng AWS ang suporta para sa NVIDIA Inference Xfer Library (NIXL) sa AWS Elastic Fabric Adapter (EFA), na idinisenyo upang pabilisin ang disaggregated LLM inference sa Amazon EC2, na sumasaklaw sa parehong NVIDIA GPU at AWS Trainium. Ang integrasyong ito ay mahalaga para sa pag-scale ng modernong AI workloads, na nagpapagana ng mahusay na overlap ng komunikasyon at komputasyon, pagliit ng latency, at pag-maximize ng paggamit ng GPU. Pinapabilis nito ang high-throughput, low-latency KV-cache data movement sa pagitan ng mga compute node at distributed memory resources. Ang NIXL sa EFA ay sumasama nang native sa mga sikat na open-source framework tulad ng NVIDIA Dynamo, vLLM, at SGLang, na nagbibigay ng pinahusay na inter-token latency at mas mahusay na paggamit ng KV-cache memory.

Pagpapabilis ng Data Analytics gamit ang Amazon EMR at GPU

Ang mga data engineer at siyentipiko ay madalas na nahihirapan sa mahahabang pipeline ng pagproseso ng data na maaaring makasira nang malaki sa AI/ML model iteration at pagbuo ng business intelligence. Ang kolaborasyon ng AWS at NVIDIA ay naghahatid ng groundbreaking na pagpapabuti: 3x mas mabilis na performance para sa mga workload ng Apache Spark. Ang pagpapabilis na ito ay nakakamit sa pamamagitan ng paggamit ng Amazon EMR sa Amazon EKS na may mga G7e instance, pinapagana ng NVIDIA's RTX PRO 6000 Blackwell Server Edition GPUs.

Ang malaking pagtaas ng performance na ito ay direktang resulta ng pinagsamang pagsisikap sa engineering na nakatuon sa pag-optimize ng GPU-accelerated analytics. Sa Amazon EMR at G7e instances, maaaring makabuluhang bawasan ng mga organisasyon ang oras na kinakailangan para sa AI/ML feature engineering, mga kumplikadong ETL transformation, at real-time analytics sa sukat. Maaaring makamit ng mga customer na nagpapatakbo ng malalaking data processing pipeline ang mas mabilis na 'time-to-insight' habang pinapanatili ang buong compatibility sa kanilang mga kasalukuyang Spark application.

Pagpapalawak ng Suporta sa Modelo ng NVIDIA Nemotron sa Amazon Bedrock

Pinalawak din ng AWS at NVIDIA ang kanilang kolaborasyon sa foundational models, na nagdadala ng mga advanced na modelo ng NVIDIA Nemotron sa Amazon Bedrock.

Malapit nang magkaroon ng kakayahan ang mga developer na i-fine-tune ang mga modelo ng NVIDIA Nemotron nang direkta sa Amazon Bedrock gamit ang Reinforcement Fine-Tuning (RFT). Ito ay isang game-changer para sa mga team na kailangang iakma ang pag-uugali ng modelo sa mga partikular na domain, maging sa legal, healthcare, finance, o iba pang specialized na larangan. Pinapagana ng RFT ang mga user na hubugin kung paano mag-isip at tumugon ang isang modelo, lumalampas sa simpleng pagkuha ng kaalaman patungo sa nuanced na pag-align ng pag-uugali. Higit sa lahat, ito ay tumatakbo nang native sa Amazon Bedrock, na nag-aalis ng overhead sa imprastraktura – tinutukoy ng mga user ang gawain, nagbibigay ng feedback, at pinamamahalaan ng Bedrock ang iba pa.

Bukod pa rito, ang NVIDIA Nemotron 3 Super, isang hybrid na Mixture-of-Experts (MoE) na modelo na binuo para sa multi-agent workloads at extended reasoning, ay paparating din sa Amazon Bedrock. Dinisenyo upang tulungan ang mga AI agent na mapanatili ang katumpakan sa mga kumplikado, multi-step na workflow, ang Nemotron 3 Super ay magpapagana ng iba't ibang use cases na sumasaklaw sa finance, cybersecurity, retail, at software development. Nangangako ito ng mabilis at cost-efficient na inference sa pamamagitan ng fully managed API, na nagpapasimple sa pag-deploy ng mga sopistikadong AI agent.

Narito ang buod ng mga pangunahing anunsyo:

Feature/IntegrationDescriptionPrimary BenefitAvailability
GPU DeploymentMahigit 1 milyong NVIDIA GPU (Blackwell, Rubin architectures) sa buong AWS Regions.Malawakang sukat ng compute para sa lahat ng AI/ML workloads, agentic AI.Starting 2026
Amazon EC2 InstancesSuporta para sa NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs sa EC2.Kauna-unahang pangunahing cloud provider na sumusuporta para sa maraming gamit na AI, graphics, analytics.Coming soon
LLM InferenceNVIDIA NIXL sa AWS EFA para sa pinabilis na disaggregated LLM inference sa buong GPU at Trainium.Nabawasan ang latency ng komunikasyon, na-maximize ang paggamit ng GPU para sa mga LLM.Announced
Apache Spark Performance3x mas mabilis na Spark workloads sa Amazon EMR sa EKS na may mga G7e instance (RTX PRO 6000).Pinabilis ang 'time-to-insight' para sa data analytics, feature engineering.Announced
Nemotron Fine-TuningReinforcement Fine-Tuning (RFT) para sa mga modelo ng Nemotron nang direkta sa Amazon Bedrock.Pag-align ng pag-uugali ng modelo na partikular sa domain nang walang overhead sa imprastraktura.Coming soon
Nemotron 3 SuperHybrid MoE model para sa multi-agent workloads at extended reasoning sa Amazon Bedrock.Mabilis, cost-efficient na inference para sa mga kumplikado, multi-step AI tasks.Coming soon

Pangako sa Kahusayan sa Enerhiya at Sustainable AI

Habang patuloy na lumalaki nang husto ang mga AI workload, ang kahusayan at pagpapanatili ng pinagbabatayan na imprastraktura ay nagiging pinakamahalaga. Ang kolaborasyon ay nagbibigay-diin din sa isang ibinahaging pangako sa pagpapabuti ng kahusayan sa enerhiya. Ang performance per watt ay hindi na lamang isang sukatan ng pagpapanatili kundi isang mahalagang kompetitibong bentahe sa AI landscape.

Sa NVIDIA GTC 2026, sumama si Amazon CSO Kara Hurst sa iba pang mga pinuno ng sustainability upang talakayin kung paano binabago ng AI ang enerhiya at imprastraktura ng enterprise sa sukat. Ang diskusyong ito ay nagpapahiwatig ng pagtutok sa pagbuo at pag-deploy ng mga solusyon sa AI na hindi lamang makapangyarihan kundi responsable rin sa kapaligiran, mula sa mga data center na na-optimize bilang aktibong kalahok sa grid hanggang sa mas malawak na enterprise AI applications. Ang forward-thinking na diskarte na ito ay nagsisiguro na ang mga pag-unlad sa AI compute ay naka-align sa mga pandaigdigang layunin ng pagpapanatili.

Mga Karaniwang Tanong

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share