AWS, NVIDIA Aprofundează Colaborarea în Domeniul AI pentru a Accelera Producția de la Fază Pilot la Producție
AI transformă industriile într-un ritm fără precedent, dar valoarea reală nu constă doar în experimentare, ci în implementarea și operarea cu succes a soluțiilor AI în medii de producție. Acest lucru necesită sisteme robuste, scalabile, sigure și conforme, care să ofere rezultate de afaceri tangibile. Abordând această nevoie critică, AWS și NVIDIA au anunțat o extindere semnificativă a colaborării lor strategice la NVIDIA GTC 2026, dezvăluind noi integrări tehnologice menite să răspundă cererii crescânde de putere de calcul AI și să propulseze soluțiile AI în producția reală.
Parteneriatul aprofundat se concentrează pe accelerarea fiecărei fațete a ciclului de viață al AI, de la infrastructură la implementarea modelelor. Aceste integrări acoperă domenii cruciale, inclusiv calculul accelerat, tehnologiile avansate de interconectare și reglajul fin și inferența simplificată a modelelor. Anunțurile cheie includ:
- Implementarea a peste 1 milion de GPU-uri NVIDIA în regiunile AWS începând cu 2026.
- Suport Amazon EC2 pentru GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition, făcând din AWS primul furnizor major de cloud care oferă acest lucru.
- Accelerare interconectare pentru inferența Modelelor Lingvistice Mari (LLM) dezagregate, utilizând NVIDIA NIXL pe AWS Elastic Fabric Adapter (EFA).
- O performanță de 3 ori mai rapidă pentru sarcinile de lucru Apache Spark utilizând Amazon EMR pe Amazon Elastic Kubernetes Service (Amazon EKS) cu instanțe Amazon EC2 G7e, alimentate de GPU-uri NVIDIA RTX PRO 6000 Blackwell Server Edition.
- Suport extins pentru modelele NVIDIA Nemotron pe Amazon Bedrock, inclusiv Reinforcement Fine-Tuning și modelul Nemotron 3 Super.
Scalarea Infrastructurii AI cu Putere GPU NVIDIA Îmbunătățită
Fundația AI-ului modern constă în infrastructura de calcul puternică. Începând cu 2026, AWS își asumă un angajament monumental față de avansul AI prin adăugarea a peste 1 milion de GPU-uri NVIDIA în regiunile sale globale de cloud. Aceasta include arhitecturile GPU de generație următoare Blackwell și Rubin, asigurând că clienții au acces la cel mai avansat hardware disponibil. AWS se mândrește deja cu cea mai amplă colecție din industrie de instanțe bazate pe GPU-uri NVIDIA, care se adresează unei game diverse de sarcini de lucru AI/ML, iar această extindere îi consolidează și mai mult poziția de lider.
Acest parteneriat de lungă durată, care se întinde pe o perioadă de peste 15 ani, se extinde și în domenii cruciale de infrastructură, cum ar fi rețeaua Spectrum. Scopul este de a oferi întreprinderilor, startup-urilor și cercetătorilor infrastructura robustă necesară pentru a construi și scala sisteme avansate de AI Agentică—AI capabil de raționament autonom, planificare și acțiune în fluxuri de lucru complexe.
Introducerea Noilor Instanțe Amazon EC2 și Inovații în Interconectare
Un punct culminant al colaborării îl reprezintă viitoarele instanțe Amazon EC2 accelerate de GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS este mândră să fie primul furnizor major de cloud care anunță suport pentru aceste GPU-uri puternice, făcându-le accesibile pentru o gamă largă de sarcini exigente. Aceste instanțe sunt ideale pentru analiza datelor, AI conversațional sofisticat, generare dinamică de conținut, sisteme avansate de recomandare, streaming video de înaltă calitate și sarcini de lucru grafice complexe.
Aceste noi instanțe EC2 vor fi construite pe robustul AWS Nitro System. Sistemul Nitro, cu combinația sa unică de hardware dedicat și un hypervisor ușor, furnizează aproape toate resursele de calcul și memorie ale hardware-ului gazdă direct instanțelor. Acest design asigură o utilizare superioară a resurselor și o performanță optimă. Crucial, hardware-ul, software-ul și firmware-ul specializat al Sistemului Nitro sunt concepute pentru a impune restricții stricte, protejând sarcinile de lucru și datele sensibile AI de accesul neautorizat, chiar și din cadrul AWS. Capacitatea sa de a efectua actualizări de firmware și optimizări în timp ce funcționează îmbunătățește și mai mult securitatea și stabilitatea esențiale pentru sarcinile de lucru AI, de analiză și grafice la nivel de producție.
Un alt aspect care îmbunătățește performanța, în special pentru modelele AI masive, este accelerarea interconectărilor pentru inferența LLM-urilor dezagregate. Pe măsură ce dimensiunile modelelor continuă să crească, costurile de comunicare între GPU-uri sau instanțele AWS Trainium pot deveni un blocaj semnificativ. AWS a anunțat suport pentru NVIDIA Inference Xfer Library (NIXL) cu AWS Elastic Fabric Adapter (EFA), conceput pentru a accelera inferența LLM-urilor dezagregate pe Amazon EC2, acoperind atât GPU-urile NVIDIA, cât și AWS Trainium. Această integrare este vitală pentru scalarea sarcinilor de lucru AI moderne, permițând o suprapunere eficientă a comunicării și calculului, minimizând latența și maximizând utilizarea GPU-ului. Facilitează mișcarea datelor KV-cache cu debit ridicat și latență scăzută între nodurile de calcul și resursele de memorie distribuite. NIXL cu EFA se integrează nativ cu framework-uri open-source populare precum NVIDIA Dynamo, vLLM și SGLang, oferind o latență inter-token îmbunătățită și o utilizare mai eficientă a memoriei KV-cache.
Accelerarea Analizei Datelor cu Amazon EMR și GPU-uri
Inginerii și oamenii de știință în date se confruntă frecvent cu pipeline-uri lungi de procesare a datelor care pot împiedica semnificativ iterarea modelelor AI/ML și generarea de informații de afaceri. Colaborarea AWS și NVIDIA aduce o îmbunătățire revoluționară: o performanță de 3 ori mai rapidă pentru sarcinile de lucru Apache Spark. Această accelerare este realizată prin utilizarea Amazon EMR pe Amazon EKS cu instanțe G7e, alimentate de GPU-urile NVIDIA RTX PRO 6000 Blackwell Server Edition.
Acest câștig substanțial de performanță este un rezultat direct al eforturilor de inginerie comune axate pe optimizarea analizei accelerate de GPU. Cu Amazon EMR și instanțe G7e, organizațiile pot reduce dramatic timpul necesar pentru ingineria caracteristicilor AI/ML, transformările ETL complexe și analiza în timp real la scară. Clienții care rulează pipeline-uri de procesare a datelor la scară largă pot obține un timp mai rapid până la obținerea de informații, menținând în același timp compatibilitatea completă cu aplicațiile lor Spark existente.
Extinderea Suportului pentru Modelele NVIDIA Nemotron pe Amazon Bedrock
AWS și NVIDIA își extind, de asemenea, colaborarea privind modelele fundamentale, aducând modele avansate NVIDIA Nemotron pe Amazon Bedrock.
Dezvoltatorii vor avea în curând capacitatea de a regla fin modelele NVIDIA Nemotron direct pe Amazon Bedrock folosind Reinforcement Fine-Tuning (RFT). Acesta este un schimbător de joc pentru echipele care trebuie să adapteze comportamentul modelului la domenii specifice, fie că este vorba de domeniul juridic, medical, financiar sau alte domenii specializate. RFT le permite utilizatorilor să modeleze modul în care un model raționează și răspunde, depășind simpla achiziție de cunoștințe către o aliniere comportamentală nuanțată. În mod crucial, acest lucru rulează nativ pe Amazon Bedrock, eliminând costurile suplimentare de infrastructură – utilizatorii definesc sarcina, oferă feedback, iar Bedrock se ocupă de restul.
În plus, NVIDIA Nemotron 3 Super, un model hibrid Mixture-of-Experts (MoE) construit pentru sarcini de lucru multi-agent și raționament extins, va fi disponibil în curând pe Amazon Bedrock. Conceput pentru a ajuta agenții AI să mențină acuratețea în fluxuri de lucru complexe, în mai multe etape, Nemotron 3 Super va alimenta diverse cazuri de utilizare, acoperind finanțe, securitate cibernetică, retail și dezvoltare software. Promite inferență rapidă și eficientă din punct de vedere al costurilor printr-un API complet gestionat, simplificând implementarea agenților AI sofisticați.
Iată un rezumat al anunțurilor cheie:
| Caracteristică/Integrare | Descriere | Beneficiu Principal | Disponibilitate |
|---|---|---|---|
| GPU Deployment | Peste 1 milion de GPU-uri NVIDIA (arhitecturi Blackwell, Rubin) în toate regiunile AWS. | Scală masivă de calcul pentru toate sarcinile de lucru AI/ML, AI agentică. | Începând cu 2026 |
| Amazon EC2 Instances | Suport pentru GPU-uri NVIDIA RTX PRO 4500 Blackwell Server Edition pe EC2. | Primul suport major de la un furnizor de cloud pentru AI versatil, grafică, analiză. | În curând |
| LLM Inference | NVIDIA NIXL pe AWS EFA pentru inferență LLM dezagregată accelerată pe GPU-uri și Trainium-uri. | Latență de comunicare minimizată, utilizare maximizată a GPU-ului pentru LLM-uri. | Anunțat |
| Apache Spark Performance | Sarcini de lucru Spark de 3 ori mai rapide pe Amazon EMR pe EKS cu instanțe G7e (RTX PRO 6000). | Timp accelerat până la obținerea de informații pentru analiza datelor, ingineria caracteristicilor. | Anunțat |
| Nemotron Fine-Tuning | Reinforcement Fine-Tuning (RFT) pentru modelele Nemotron direct pe Amazon Bedrock. | Alinierea comportamentului modelului specific domeniului fără costuri suplimentare de infrastructură. | În curând |
| Nemotron 3 Super | Model MoE hibrid pentru sarcini de lucru multi-agent și raționament extins pe Amazon Bedrock. | Inferență rapidă, eficientă din punct de vedere al costurilor pentru sarcini AI complexe, în mai multe etape. | În curând |
Angajament pentru Eficiență Energetică și AI Sustenabil
Pe măsură ce sarcinile de lucru AI continuă să crească exponențial, eficiența și sustenabilitatea infrastructurii subiacente devin primordiale. Colaborarea subliniază, de asemenea, un angajament comun de îmbunătățire a eficienței energetice. Performanța per watt nu mai este doar o metrică de sustenabilitate, ci un avantaj competitiv semnificativ în peisajul AI.
La NVIDIA GTC 2026, directorul de sustenabilitate Amazon, Kara Hurst, s-a alăturat altor lideri în sustenabilitate pentru a discuta cum AI transformă fundamental energia și infrastructura întreprinderilor la scară largă. Această discuție subliniază accentul pus pe dezvoltarea și implementarea soluțiilor AI care nu sunt doar puternice, ci și responsabile față de mediu, de la centre de date optimizate ca participanți activi la rețea la aplicații AI pentru întreprinderi mai largi. Această abordare vizionară asigură că progresele în calculul AI sunt aliniate cu obiectivele globale de sustenabilitate.
Sursa originală
https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/Întrebări frecvente
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Rămâi la curent
Primește ultimele știri AI în inbox-ul tău.
