Code Velocity
AI ya Biashara

AWS, NVIDIA Yaongeza Ushirikiano wa AI Kuharakisha Uzalishaji Kutoka Majaribio Hadi Uzalishaji Kamili

·5 dakika kusoma·AWS, NVIDIA·Chanzo asili
Shiriki
Nembo za AWS na NVIDIA zikionyeshwa wazi, zikionyesha ushirikiano wao wa kimkakati uliopanuliwa kwa uharakishaji na uvumbuzi wa AI.

AWS, NVIDIA Yaongeza Ushirikiano wa AI Kuharakisha Uzalishaji Kutoka Majaribio Hadi Uzalishaji Kamili

AI inabadilisha viwanda kwa kasi isiyo na kifani, lakini thamani halisi haiko tu katika majaribio, bali katika kupeleka na kuendesha suluhisho za AI kwa mafanikio katika mazingira ya uzalishaji. Hii inahitaji mifumo imara, inayoweza kukua, salama, na inayotii kanuni zinazotoa matokeo halisi ya biashara. Ili kukabiliana na hitaji hili muhimu, AWS na NVIDIA zilitangaza upanuzi mkubwa wa ushirikiano wao wa kimkakati katika NVIDIA GTC 2026, wakifunua ujumuishaji mpya wa teknolojia iliyoundwa kukidhi mahitaji yanayoongezeka ya kompyuta ya AI na kupeleka suluhisho za AI katika uzalishaji halisi.

Ushirikiano huu ulioongezeka unalenga kuharakisha kila kipengele cha mzunguko wa maisha wa AI, kuanzia miundombinu hadi usambazaji wa mfumo. Ujumuishaji huu unajumuisha maeneo muhimu ikiwemo kompyuta iliyoharakishwa, teknolojia za hali ya juu za muunganisho, na urekebishaji rahisi wa mfumo na utoaji wa hitimisho. Matangazo muhimu yanajumuisha:

  • Uwekaji wa zaidi ya GPU milioni 1 za NVIDIA katika Maeneo ya AWS kuanzia mwaka 2026.
  • Usaidizi wa Amazon EC2 kwa NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs, na kuifanya AWS kuwa mtoa huduma mkuu wa kwanza wa wingu kutoa huduma hii.
  • Uharakishaji wa muunganisho kwa utoaji wa hitimisho wa Mfumo Mkubwa wa Lugha (LLM) uliotenganishwa kwa kutumia NVIDIA NIXL kwenye AWS Elastic Fabric Adapter (EFA).
  • Utendaji wa haraka mara 3 wa kushangaza kwa kazi za Apache Spark kwa kutumia Amazon EMR kwenye Amazon Elastic Kubernetes Service (Amazon EKS) na matukio ya Amazon EC2 G7e, yanayotumia NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.
  • Usaidizi uliopanuliwa wa mfumo wa NVIDIA Nemotron kwenye Amazon Bedrock, ikijumuisha Reinforcement Fine-Tuning na mfumo wa Nemotron 3 Super.

Kuongeza Miundombinu ya AI kwa Nguvu Iliyoimarishwa ya NVIDIA GPU

Msingi wa AI ya kisasa uko katika miundombinu yenye nguvu ya kompyuta. Kuanzia mwaka 2026, AWS inafanya ahadi kubwa kwa maendeleo ya AI kwa kuongeza zaidi ya GPU milioni 1 za NVIDIA kwenye maeneo yake ya wingu duniani. Hii inajumuisha usanifu wa GPU wa kizazi kijacho wa Blackwell na Rubin, kuhakikisha kuwa wateja wanapata vifaa vya hali ya juu zaidi vinavyopatikana. AWS tayari inajivunia mkusanyiko mpana zaidi wa sekta ya matukio ya msingi wa NVIDIA GPU, yakihudumia mizigo mbalimbali ya AI/ML, na upanuzi huu unazidi kuimarisha uongozi wake.

Ushirikiano huu wa muda mrefu, unaoendelea kwa zaidi ya miaka 15, pia unapanuka hadi maeneo muhimu ya miundombinu kama vile mitandao ya Spectrum. Lengo ni kutoa biashara, kampuni changa, na watafiti miundombinu imara inayohitajika kujenga na kuongeza Mifumo ya Akili ya Wakala ya hali ya juu — AI yenye uwezo wa kufikiri, kupanga, na kutenda kwa uhuru katika mtiririko tata wa kazi.

Kuanzisha Matukio Mapya ya Amazon EC2 na Ubunifu wa Muunganisho

Kipengele muhimu cha ushirikiano huu ni matukio yajayo ya Amazon EC2 yaliyoharakishwa na NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs. AWS inajivunia kuwa mtoa huduma mkuu wa kwanza wa wingu kutangaza usaidizi kwa GPU hizi zenye nguvu, na kuzifanya zipatikane kwa kazi mbalimbali zinazohitaji sana. Matukio haya yanafaa kabisa kwa uchambuzi wa data, AI ya mazungumzo ya hali ya juu, uzalishaji wa maudhui mahiri, mifumo ya mapendekezo ya hali ya juu, utiririshaji wa video wa hali ya juu, na mizigo tata ya picha.

Matukio haya mapya ya EC2 yatajengwa kwenye Mfumo thabiti wa AWS Nitro. Mfumo wa Nitro, pamoja na mchanganyiko wake wa kipekee wa vifaa maalum na hypervisor nyepesi, unatoa karibu rasilimali zote za kompyuta na kumbukumbu za vifaa vya mwenyeji moja kwa moja kwa matukio. Ubunifu huu unahakikisha matumizi bora ya rasilimali na utendaji. Muhimu zaidi, vifaa maalum vya Mfumo wa Nitro, programu, na firmware zimeundwa kutekeleza vikwazo vikali, kulinda mizigo nyeti ya AI na data kutoka kwa ufikiaji usioidhinishwa, hata kutoka ndani ya AWS. Uwezo wake wa kufanya masasisho ya firmware na uboreshaji wakati unafanya kazi unazidi kuimarisha usalama na utulivu muhimu kwa mizigo ya AI, uchambuzi, na picha za kiwango cha uzalishaji.

Zaidi ya hayo, kuongeza utendaji, hasa kwa mifumo mikubwa ya AI, ni uharakishaji wa miunganisho kwa utoaji wa hitimisho wa LLM uliotenganishwa. Kadiri saizi za mfumo zinavyoendelea kukua, matumizi ya mawasiliano kati ya GPU au matukio ya AWS Trainium yanaweza kuwa kikwazo kikubwa. AWS ilitangaza usaidizi kwa NVIDIA Inference Xfer Library (NIXL) na AWS Elastic Fabric Adapter (EFA), iliyoundwa kuharakisha utoaji wa hitimisho wa LLM uliotenganishwa kwenye Amazon EC2, ikijumuisha GPU za NVIDIA na AWS Trainium. Ujumuishaji huu ni muhimu kwa kuongeza mizigo ya kisasa ya AI, kuwezesha uunganisho bora wa mawasiliano na kompyuta, kupunguza ucheleweshaji, na kuongeza matumizi ya GPU. Inawezesha uhamishaji wa data ya KV-cache yenye kiwango cha juu na ucheleweshaji mdogo kati ya nodi za kompyuta na rasilimali za kumbukumbu zilizosambazwa. NIXL na EFA huunganishwa asili na mifumo maarufu ya chanzo huria kama vile NVIDIA Dynamo, vLLM, na SGLang, ikitoa ucheleweshaji bora wa inter-token na matumizi bora zaidi ya kumbukumbu ya KV-cache.

Kuharakisha Uchambuzi wa Data kwa Amazon EMR na GPU

Wahandisi wa data na wanasayansi mara nyingi hukabiliana na mirija mirefu ya uchakataji wa data ambayo inaweza kuzuia kwa kiasi kikubwa kurudiarudia kwa mfumo wa AI/ML na uzalishaji wa taarifa za biashara. Ushirikiano wa AWS na NVIDIA unatoa uboreshaji wa kipekee: utendaji wa haraka mara 3 kwa kazi za Apache Spark. Uharakishaji huu unapatikana kwa kutumia Amazon EMR kwenye Amazon EKS na matukio ya G7e, yanayotumia GPU za NVIDIA RTX PRO 6000 Blackwell Server Edition.

Ongezeko hili kubwa la utendaji ni matokeo ya moja kwa moja ya juhudi za uhandisi za pamoja zinazolenga kuboresha uchambuzi ulioharakishwa na GPU. Kwa Amazon EMR na matukio ya G7e, mashirika yanaweza kupunguza kwa kiasi kikubwa muda unaohitajika kwa uhandisi wa vipengele vya AI/ML, mabadiliko tata ya ETL, na uchambuzi wa wakati halisi kwa kiwango kikubwa. Wateja wanaoendesha mirija mikubwa ya uchakataji wa data wanaweza kufikia ufahamu wa haraka huku wakidumisha utangamano kamili na programu zao zilizopo za Spark.

Kupanua Usaidizi wa Mfumo wa NVIDIA Nemotron kwenye Amazon Bedrock

AWS na NVIDIA pia zinaongeza ushirikiano wao kwenye mifumo ya msingi, zikileta mifumo ya hali ya juu ya NVIDIA Nemotron kwenye Amazon Bedrock.

Watengenezaji hivi karibuni watakuwa na uwezo wa kurekebisha mifumo ya NVIDIA Nemotron moja kwa moja kwenye Amazon Bedrock kwa kutumia Reinforcement Fine-Tuning (RFT). Huu ni mabadiliko muhimu kwa timu zinazohitaji kurekebisha tabia ya mfumo kwa maeneo maalum, iwe katika sheria, afya, fedha, au nyanja zingine maalum. RFT inawawezesha watumiaji kuunda jinsi mfumo unavyofikiri na kujibu, kusonga mbali zaidi ya upatikanaji wa maarifa tu hadi ushirikishwaji wa tabia nyeti. Muhimu zaidi, hii inaendeshwa asili kwenye Amazon Bedrock, ikiondoa matumizi ya miundombinu – watumiaji wanafafanua kazi, wanatoa maoni, na Bedrock inasimamia mengine.

Zaidi ya hayo, NVIDIA Nemotron 3 Super, mfumo mseto wa Mixture-of-Experts (MoE) uliojengwa kwa kazi nyingi za wakala na hoja zilizopanuliwa, pia unakuja hivi karibuni kwenye Amazon Bedrock. Umeundwa kusaidia mawakala wa AI kudumisha usahihi katika mtiririko tata wa kazi wenye hatua nyingi, Nemotron 3 Super utawezesha matumizi mbalimbali yanayojumuisha fedha, usalama wa mtandao, rejareja, na ukuzaji wa programu. Unaahidi utoaji wa hitimisho wa haraka na gharama nafuu kupitia API iliyosimamiwa kikamilifu, ikirahisisha usambazaji wa mawakala wa AI wa hali ya juu.

Huu hapa muhtasari wa matangazo muhimu:

| Kipengele/Ujumuishaji | Maelezo | Faida Kuu | Upatikanaji | | :---------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------------- | :------------------------------------------------w | :-------------------- | | Uwekaji wa GPU | Zaidi ya GPU milioni 1 za NVIDIA (usanifu wa Blackwell, Rubin) katika Maeneo ya AWS. | Kiwango kikubwa cha kompyuta kwa mizigo yote ya AI/ML, AI ya wakala. | Kuanzia 2026 | | Matukio ya Amazon EC2 | Usaidizi kwa NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs kwenye EC2. | Usaidizi mkuu wa kwanza wa wingu kwa AI, picha, uchambuzi mbalimbali. | Inakuja hivi karibuni | | Utoaji wa Hitimisho wa LLM | NVIDIA NIXL kwenye AWS EFA kwa utoaji wa hitimisho wa LLM uliotenganishwa katika GPU na Trainiums. | Ucheleweshaji mdogo wa mawasiliano, matumizi bora ya GPU kwa LLM. | Imetangazwa | | Utendaji wa Apache Spark | Kazi za Spark za haraka mara 3 kwenye Amazon EMR kwenye EKS na matukio ya G7e (RTX PRO 6000). | Muda wa haraka wa kupata ufahamu kwa uchambuzi wa data, uhandisi wa vipengele. | Imetangazwa | | Urekebishaji wa Nemotron | Reinforcement Fine-Tuning (RFT) kwa mifumo ya Nemotron moja kwa moja kwenye Amazon Bedrock. | Ulinganifu wa tabia ya mfumo maalum wa kikoa bila matumizi ya miundombinu. | Inakuja hivi karibuni | | Nemotron 3 Super | Mfumo mseto wa MoE kwa kazi nyingi za wakala na hoja zilizopanuliwa kwenye Amazon Bedrock. | Utoaji wa hitimisho wa haraka na gharama nafuu kwa kazi tata za AI zenye hatua nyingi. | Inakuja hivi karibuni |

Ahadi ya Ufanisi wa Nishati na AI Endelevu

Kadiri kazi za AI zinavyoendelea kukua kwa kasi, ufanisi na uendelevu wa miundombinu ya msingi huwa muhimu sana. Ushirikiano huu pia unasisitiza ahadi ya pamoja ya kuboresha ufanisi wa nishati. Utendaji kwa wati sio tu kipimo cha uendelevu bali pia faida muhimu ya ushindani katika mazingira ya AI.

Katika NVIDIA GTC 2026, Kara Hurst wa CSO wa Amazon alijiunga na viongozi wengine wa uendelevu kujadili jinsi AI inavyobadilisha kimsingi nishati na miundombinu ya biashara kwa kiwango kikubwa. Majadiliano haya yanasisitiza umakini katika kuendeleza na kupeleka suluhisho za AI ambazo sio tu zenye nguvu bali pia zinawajibika kimazingira, kuanzia vituo vya data vilivyoboreshwa kama washiriki hai wa gridi hadi programu pana za AI za biashara. Mtazamo huu wa kufikiria mbele unahakikisha kuwa maendeleo katika kompyuta ya AI yanalingana na malengo ya kimataifa ya uendelevu.

Maswali Yanayoulizwa Mara kwa Mara

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Baki na Habari

Pokea habari za hivi karibuni za AI kwenye barua pepe yako.

Shiriki