Code Velocity
AI pentru Întreprinderi

AWS, NVIDIA Aprofundează Colaborarea în Domeniul AI pentru a Accelera Producția

·5 min de citit·AWS, NVIDIA·Sursa originală
Distribuie
Logourile AWS și NVIDIA afișate proeminent, simbolizând colaborarea lor strategică extinsă pentru accelerarea și inovarea în domeniul AI.

AWS, NVIDIA Aprofundează Colaborarea în Domeniul AI pentru a Accelera Producția de la Fază Pilot la Producție

AI transformă industriile într-un ritm fără precedent, dar valoarea reală nu constă doar în experimentare, ci în implementarea și operarea cu succes a soluțiilor AI în medii de producție. Acest lucru necesită sisteme robuste, scalabile, sigure și conforme, care să ofere rezultate de afaceri tangibile. Abordând această nevoie critică, AWS și NVIDIA au anunțat o extindere semnificativă a colaborării lor strategice la NVIDIA GTC 2026, dezvăluind noi integrări tehnologice menite să răspundă cererii crescânde de putere de calcul AI și să propulseze soluțiile AI în producția reală.

Parteneriatul aprofundat se concentrează pe accelerarea fiecărei fațete a ciclului de viață al AI, de la infrastructură la implementarea modelelor. Aceste integrări acoperă domenii cruciale, inclusiv calculul accelerat, tehnologiile avansate de interconectare și reglajul fin și inferența simplificată a modelelor. Anunțurile cheie includ:

  • Implementarea a peste 1 milion de GPU-uri NVIDIA în regiunile AWS începând cu 2026.
  • Suport Amazon EC2 pentru GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition, făcând din AWS primul furnizor major de cloud care oferă acest lucru.
  • Accelerare interconectare pentru inferența Modelelor Lingvistice Mari (LLM) dezagregate, utilizând NVIDIA NIXL pe AWS Elastic Fabric Adapter (EFA).
  • O performanță de 3 ori mai rapidă pentru sarcinile de lucru Apache Spark utilizând Amazon EMR pe Amazon Elastic Kubernetes Service (Amazon EKS) cu instanțe Amazon EC2 G7e, alimentate de GPU-uri NVIDIA RTX PRO 6000 Blackwell Server Edition.
  • Suport extins pentru modelele NVIDIA Nemotron pe Amazon Bedrock, inclusiv Reinforcement Fine-Tuning și modelul Nemotron 3 Super.

Scalarea Infrastructurii AI cu Putere GPU NVIDIA Îmbunătățită

Fundația AI-ului modern constă în infrastructura de calcul puternică. Începând cu 2026, AWS își asumă un angajament monumental față de avansul AI prin adăugarea a peste 1 milion de GPU-uri NVIDIA în regiunile sale globale de cloud. Aceasta include arhitecturile GPU de generație următoare Blackwell și Rubin, asigurând că clienții au acces la cel mai avansat hardware disponibil. AWS se mândrește deja cu cea mai amplă colecție din industrie de instanțe bazate pe GPU-uri NVIDIA, care se adresează unei game diverse de sarcini de lucru AI/ML, iar această extindere îi consolidează și mai mult poziția de lider.

Acest parteneriat de lungă durată, care se întinde pe o perioadă de peste 15 ani, se extinde și în domenii cruciale de infrastructură, cum ar fi rețeaua Spectrum. Scopul este de a oferi întreprinderilor, startup-urilor și cercetătorilor infrastructura robustă necesară pentru a construi și scala sisteme avansate de AI Agentică—AI capabil de raționament autonom, planificare și acțiune în fluxuri de lucru complexe.

Introducerea Noilor Instanțe Amazon EC2 și Inovații în Interconectare

Un punct culminant al colaborării îl reprezintă viitoarele instanțe Amazon EC2 accelerate de GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS este mândră să fie primul furnizor major de cloud care anunță suport pentru aceste GPU-uri puternice, făcându-le accesibile pentru o gamă largă de sarcini exigente. Aceste instanțe sunt ideale pentru analiza datelor, AI conversațional sofisticat, generare dinamică de conținut, sisteme avansate de recomandare, streaming video de înaltă calitate și sarcini de lucru grafice complexe.

Aceste noi instanțe EC2 vor fi construite pe robustul AWS Nitro System. Sistemul Nitro, cu combinația sa unică de hardware dedicat și un hypervisor ușor, furnizează aproape toate resursele de calcul și memorie ale hardware-ului gazdă direct instanțelor. Acest design asigură o utilizare superioară a resurselor și o performanță optimă. Crucial, hardware-ul, software-ul și firmware-ul specializat al Sistemului Nitro sunt concepute pentru a impune restricții stricte, protejând sarcinile de lucru și datele sensibile AI de accesul neautorizat, chiar și din cadrul AWS. Capacitatea sa de a efectua actualizări de firmware și optimizări în timp ce funcționează îmbunătățește și mai mult securitatea și stabilitatea esențiale pentru sarcinile de lucru AI, de analiză și grafice la nivel de producție.

Un alt aspect care îmbunătățește performanța, în special pentru modelele AI masive, este accelerarea interconectărilor pentru inferența LLM-urilor dezagregate. Pe măsură ce dimensiunile modelelor continuă să crească, costurile de comunicare între GPU-uri sau instanțele AWS Trainium pot deveni un blocaj semnificativ. AWS a anunțat suport pentru NVIDIA Inference Xfer Library (NIXL) cu AWS Elastic Fabric Adapter (EFA), conceput pentru a accelera inferența LLM-urilor dezagregate pe Amazon EC2, acoperind atât GPU-urile NVIDIA, cât și AWS Trainium. Această integrare este vitală pentru scalarea sarcinilor de lucru AI moderne, permițând o suprapunere eficientă a comunicării și calculului, minimizând latența și maximizând utilizarea GPU-ului. Facilitează mișcarea datelor KV-cache cu debit ridicat și latență scăzută între nodurile de calcul și resursele de memorie distribuite. NIXL cu EFA se integrează nativ cu framework-uri open-source populare precum NVIDIA Dynamo, vLLM și SGLang, oferind o latență inter-token îmbunătățită și o utilizare mai eficientă a memoriei KV-cache.

Accelerarea Analizei Datelor cu Amazon EMR și GPU-uri

Inginerii și oamenii de știință în date se confruntă frecvent cu pipeline-uri lungi de procesare a datelor care pot împiedica semnificativ iterarea modelelor AI/ML și generarea de informații de afaceri. Colaborarea AWS și NVIDIA aduce o îmbunătățire revoluționară: o performanță de 3 ori mai rapidă pentru sarcinile de lucru Apache Spark. Această accelerare este realizată prin utilizarea Amazon EMR pe Amazon EKS cu instanțe G7e, alimentate de GPU-urile NVIDIA RTX PRO 6000 Blackwell Server Edition.

Acest câștig substanțial de performanță este un rezultat direct al eforturilor de inginerie comune axate pe optimizarea analizei accelerate de GPU. Cu Amazon EMR și instanțe G7e, organizațiile pot reduce dramatic timpul necesar pentru ingineria caracteristicilor AI/ML, transformările ETL complexe și analiza în timp real la scară. Clienții care rulează pipeline-uri de procesare a datelor la scară largă pot obține un timp mai rapid până la obținerea de informații, menținând în același timp compatibilitatea completă cu aplicațiile lor Spark existente.

Extinderea Suportului pentru Modelele NVIDIA Nemotron pe Amazon Bedrock

AWS și NVIDIA își extind, de asemenea, colaborarea privind modelele fundamentale, aducând modele avansate NVIDIA Nemotron pe Amazon Bedrock.

Dezvoltatorii vor avea în curând capacitatea de a regla fin modelele NVIDIA Nemotron direct pe Amazon Bedrock folosind Reinforcement Fine-Tuning (RFT). Acesta este un schimbător de joc pentru echipele care trebuie să adapteze comportamentul modelului la domenii specifice, fie că este vorba de domeniul juridic, medical, financiar sau alte domenii specializate. RFT le permite utilizatorilor să modeleze modul în care un model raționează și răspunde, depășind simpla achiziție de cunoștințe către o aliniere comportamentală nuanțată. În mod crucial, acest lucru rulează nativ pe Amazon Bedrock, eliminând costurile suplimentare de infrastructură – utilizatorii definesc sarcina, oferă feedback, iar Bedrock se ocupă de restul.

În plus, NVIDIA Nemotron 3 Super, un model hibrid Mixture-of-Experts (MoE) construit pentru sarcini de lucru multi-agent și raționament extins, va fi disponibil în curând pe Amazon Bedrock. Conceput pentru a ajuta agenții AI să mențină acuratețea în fluxuri de lucru complexe, în mai multe etape, Nemotron 3 Super va alimenta diverse cazuri de utilizare, acoperind finanțe, securitate cibernetică, retail și dezvoltare software. Promite inferență rapidă și eficientă din punct de vedere al costurilor printr-un API complet gestionat, simplificând implementarea agenților AI sofisticați.

Iată un rezumat al anunțurilor cheie:

Caracteristică/IntegrareDescriereBeneficiu PrincipalDisponibilitate
GPU DeploymentPeste 1 milion de GPU-uri NVIDIA (arhitecturi Blackwell, Rubin) în toate regiunile AWS.Scală masivă de calcul pentru toate sarcinile de lucru AI/ML, AI agentică.Începând cu 2026
Amazon EC2 InstancesSuport pentru GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition pe EC2.Primul suport major de la un furnizor de cloud pentru AI versatil, grafică, analiză.În curând
LLM InferenceNVIDIA NIXL pe AWS EFA pentru inferență LLM dezagregată accelerată pe GPU-uri și Trainium-uri.Latență de comunicare minimizată, utilizare maximizată a GPU-ului pentru LLM-uri.Anunțat
Apache Spark PerformanceSarcini de lucru Spark de 3 ori mai rapide pe Amazon EMR pe EKS cu instanțe G7e (RTX PRO 6000).Timp accelerat până la obținerea de informații pentru analiza datelor, ingineria caracteristicilor.Anunțat
Nemotron Fine-TuningReinforcement Fine-Tuning (RFT) pentru modelele Nemotron direct pe Amazon Bedrock.Alinierea comportamentului modelului specific domeniului fără costuri suplimentare de infrastructură.În curând
Nemotron 3 SuperModel MoE hibrid pentru sarcini de lucru multi-agent și raționament extins pe Amazon Bedrock.Inferență rapidă, eficientă din punct de vedere al costurilor pentru sarcini AI complexe, în mai multe etape.În curând

Angajament pentru Eficiență Energetică și AI Sustenabil

Pe măsură ce sarcinile de lucru AI continuă să crească exponențial, eficiența și sustenabilitatea infrastructurii subiacente devin primordiale. Colaborarea subliniază, de asemenea, un angajament comun de îmbunătățire a eficienței energetice. Performanța per watt nu mai este doar o metrică de sustenabilitate, ci un avantaj competitiv semnificativ în peisajul AI.

La NVIDIA GTC 2026, directorul de sustenabilitate Amazon, Kara Hurst, s-a alăturat altor lideri în sustenabilitate pentru a discuta cum AI transformă fundamental energia și infrastructura întreprinderilor la scară largă. Această discuție subliniază accentul pus pe dezvoltarea și implementarea soluțiilor AI care nu sunt doar puternice, ci și responsabile față de mediu, de la centre de date optimizate ca participanți activi la rețea la aplicații AI pentru întreprinderi mai largi. Această abordare vizionară asigură că progresele în calculul AI sunt aliniate cu obiectivele globale de sustenabilitate.

Întrebări frecvente

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Rămâi la curent

Primește ultimele știri AI în inbox-ul tău.

Distribuie