Code Velocity
Müəssisə Sİ

AWS, NVIDIA Süni İntellekt Əməkdaşlığını İstehsalı Sürətləndirmək üçün Dərinləşdirir

·5 dəq oxunma·AWS, NVIDIA·Orijinal mənbə
Paylaş
AWS və NVIDIA loqoları qabarıq şəkildə nümayiş etdirilir, Sİ sürətləndirilməsi və innovasiyası üçün genişləndirilmiş strateji əməkdaşlıqlarını simvollaşdırır.

AWS, NVIDIA Süni İntellekt Əməkdaşlığını Pilotdan İstehsala Qədər Sürətləndirmək üçün Dərinləşdirir

Süni İntellekt (Sİ) sənayeləri misli görünməmiş sürətlə dəyişdirir, lakin əsl dəyər təkcə eksperimentlərdə deyil, Sİ həllərinin istehsal mühitlərində uğurla yerləşdirilməsi və istismar edilməsindədir. Bu, möhkəm, miqyaslı, təhlükəsiz və uyğun sistemlər tələb edir ki, bunlar da konkret biznes nəticələri təmin etsin. Bu kritik ehtiyacı qarşılamaq üçün AWS və NVIDIA NVIDIA GTC 2026-da strateji əməkdaşlıqlarının əhəmiyyətli dərəcədə genişləndirildiyini elan etdilər, Sİ hesablama gücünə artan tələbatı ödəmək və Sİ həllərini real istehsala doğru yönəltmək üçün nəzərdə tutulmuş yeni texnoloji inteqrasiyaları təqdim etdilər.

Dərinləşdirilmiş tərəfdaşlıq, infrastrukturdan modelin yerləşdirilməsinə qədər Sİ həyat dövrünün hər bir aspektini sürətləndirməyə yönəlmişdir. Bu inteqrasiyalar sürətləndirilmiş hesablama, qabaqcıl qarşılıqlı əlaqə texnologiyaları, habelə optimallaşdırılmış model incə tənzimləmə və nəticə çıxarma kimi mühüm sahələri əhatə edir. Əsas elanlara aşağıdakılar daxildir:

  • 1 milyondan çox NVIDIA GPU-nun 2026-cı ildən başlayaraq AWS Regionlarında yerləşdirilməsi.
  • AWS-i bu imkanı təklif edən ilk əsas bulud təminatçısı edərək, Amazon EC2-nin NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ları üçün dəstəyi.
  • AWS Elastic Fabric Adapter (EFA) üzərində NVIDIA NIXL-dən istifadə edərək ayrılmış Böyük Dil Modeli (BDM) nəticə çıxarılması üçün qarşılıqlı əlaqənin sürətləndirilməsi.
  • NVIDIA RTX PRO 6000 Blackwell Server Edition GPU-ları ilə təchiz edilmiş Amazon EC2 G7e instansiyaları ilə Amazon Elastic Kubernetes Service (Amazon EKS) üzərində Amazon EMR istifadə edərək Apache Spark iş yükləri üçün 3 dəfə daha sürətli performans.
  • Reinforcement Fine-Tuning və Nemotron 3 Super modeli daxil olmaqla, Amazon Bedrock-da genişləndirilmiş NVIDIA Nemotron model dəstəyi.

Təkmilləşdirilmiş NVIDIA GPU Gücü ilə Sİ İnfrastrukturunun Miqyaslandırılması

Müasir Sİ-nin təməli güclü hesablama infrastrukturunda dayanır. 2026-cı ildən başlayaraq, AWS qlobal bulud regionlarına 1 milyondan çox NVIDIA GPU əlavə edərək Sİ inkişafına monumental öhdəlik götürür. Bu, növbəti nəsil Blackwell və Rubin GPU arxitekturalarını əhatə edir, müştərilərin mövcud ən qabaqcıl avadanlıqlara çıxışını təmin edir. AWS artıq sənayenin ən geniş NVIDIA GPU-əsaslı instansiya kolleksiyasına malikdir, müxtəlif Sİ/MÖ (Maşın Öyrənməsi) iş yüklərini təmin edir və bu genişlənmə onun liderliyini daha da möhkəmləndirir.

15 ildən çox davam edən bu uzunmüddətli tərəfdaşlıq, Spectrum şəbəkəsi kimi mühüm infrastruktur sahələrini də əhatə edir. Məqsəd, müəssisələrə, startaplara və tədqiqatçılara kompleks iş axınları boyunca avtonom düşünmə, planlaşdırma və fəaliyyət göstərməyə qadir olan qabaqcıl Agentik Sİ sistemləri qurmaq və miqyaslandırmaq üçün tələb olunan möhkəm infrastruktur təmin etməkdir.

Yeni Amazon EC2 İnstansiyaları və Qarşılıqlı Əlaqə İnnovasiyalarının Təqdimatı

Əməkdaşlığın əsas məqamlarından biri NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ları tərəfindən sürətləndirilmiş Amazon EC2 instansiyalarının təqdim edilməsidir. AWS, bu güclü GPU-lar üçün dəstəyi elan edən ilk böyük bulud təminatçısı olmaqdan qürur duyur və onları geniş çeşidli tələbkar tapşırıqlar üçün əlçatan edir. Bu instansiyalar məlumat analitikası, mürəkkəb danışıq Sİ-si, dinamik məzmun yaratma, qabaqcıl tövsiyə sistemləri, yüksək keyfiyyətli video axını və kompleks qrafik iş yükləri üçün ideal şəkildə uyğundur.

Bu yeni EC2 instansiyaları möhkəm AWS Nitro Sistemi üzərində qurulacaq. Nitro Sistemi, xüsusi avadanlıq və yüngül hipervizorun unikal birləşməsi ilə, host avadanlığının hesablama və yaddaş resurslarının demək olar ki, hamısını birbaşa instansiyalara çatdırır. Bu dizayn üstün resurs istifadəsini və performansını təmin edir. Ən əsası, Nitro Sisteminin ixtisaslaşdırılmış avadanlığı, proqram təminatı və proqram təminatı (firmware) sərt məhdudiyyətləri tətbiq etmək üçün nəzərdə tutulub, hətta AWS daxilindən də icazəsiz girişdən həssas Sİ iş yüklərini və məlumatlarını qoruyur. Onun əməliyyat zamanı proqram təminatının (firmware) yeniləmələrini və optimallaşdırmalarını yerinə yetirmək qabiliyyəti, istehsal səviyyəli Sİ, analitika və qrafik iş yükləri üçün vacib olan təhlükəsizliyi və sabitliyi daha da artırır.

Performansı, xüsusilə də kütləvi Sİ modelləri üçün daha da təkmilləşdirən, ayrılmış BDM (Böyük Dil Modeli) nəticə çıxarılması üçün qarşılıqlı əlaqənin sürətləndirilməsidir. Model ölçüləri böyüməyə davam etdikcə, GPU-lar və ya AWS Trainium instansiyaları arasındakı kommunikasiya xərcləri əhəmiyyətli bir tıxaca çevrilə bilər. AWS, NVIDIA Inference Xfer Library (NIXL)-i AWS Elastic Fabric Adapter (EFA) ilə dəstəklədiyini elan etdi ki, bu da həm NVIDIA GPU-larını, həm də AWS Trainium-u əhatə edən Amazon EC2-də ayrılmış BDM nəticə çıxarılmasını sürətləndirmək üçün nəzərdə tutulub. Bu inteqrasiya müasir Sİ iş yüklərinin miqyaslandırılması, kommunikasiya və hesablamanın səmərəli üst-üstə düşməsini təmin etmək, gecikməni minimuma endirmək və GPU istifadəsini maksimuma çatdırmaq üçün həyati əhəmiyyət kəsb edir. Bu, hesablama düyünləri və paylanmış yaddaş resursları arasında yüksək keçid qabiliyyəti, aşağı gecikməli KV-cache məlumat hərəkətinə kömək edir. EFA ilə NIXL, NVIDIA Dynamo, vLLM və SGLang kimi məşhur açıq mənbə çərçivələri ilə yerli olaraq inteqrasiya olunur, inter-token gecikməsini yaxşılaşdırır və daha səmərəli KV-cache yaddaş istifadəsini təmin edir.

Amazon EMR və GPU-lar ilə Məlumat Analitikasının Sürətləndirilməsi

Məlumat mühəndisləri və alimləri tez-tez Sİ/MÖ modelinin iterasiyasına və biznes intellektinin yaradılmasına əhəmiyyətli dərəcədə mane ola biləcək uzunmüddətli məlumat emalı axınları ilə mübarizə aparırlar. AWS və NVIDIA əməkdaşlığı inqilabi bir irəliləyiş təqdim edir: Apache Spark iş yükləri üçün 3 dəfə daha sürətli performans. Bu sürətlənmə NVIDIA-nın RTX PRO 6000 Blackwell Server Edition GPU-ları ilə təchiz edilmiş G7e instansiyaları ilə Amazon EKS üzərində Amazon EMR-dən istifadə etməklə əldə edilir.

Bu əhəmiyyətli performans artımı, GPU-sürətləndirilmiş analitikanın optimallaşdırılmasına yönəlmiş birgə mühəndislik səylərinin birbaşa nəticəsidir. Amazon EMR və G7e instansiyaları ilə təşkilatlar Sİ/MÖ xüsusiyyətlərinin mühəndisliyi, kompleks ETL çevrilmələri və miqyaslı real-time analitika kimi kritik tapşırıqlar üçün tələb olunan vaxtı kəskin şəkildə azalda bilərlər. Geniş miqyaslı məlumat emalı axınlarını idarə edən müştərilər, mövcud Spark tətbiqləri ilə tam uyğunluğu qoruyarkən daha sürətli bilik əldə etmə vaxtına nail ola bilərlər.

Amazon Bedrock-da NVIDIA Nemotron Model Dəstəyinin Genişləndirilməsi

AWS və NVIDIA, əsas modellər üzrə əməkdaşlıqlarını da genişləndirir, qabaqcıl NVIDIA Nemotron modellərini Amazon Bedrock-a gətirir.

Tərtibatçılar tezliklə Reinforcement Fine-Tuning (RFT) istifadə edərək NVIDIA Nemotron modellərini birbaşa Amazon Bedrock-da incə tənzimləmək imkanına sahib olacaqlar. Bu, hüquq, səhiyyə, maliyyə və ya digər ixtisaslaşmış sahələrdə modelin davranışını müəyyən domenlərə uyğunlaşdırmaq ehtiyacı olan komandalar üçün oyun dəyişdiricisidir. RFT istifadəçilərə modelin necə düşünəcəyini və cavab verəcəyini formalaşdırmağa imkan verir, sadəcə bilik əldə etməkdən daha incə davranış uyğunlaşmasına keçir. Ən əsası, bu, Amazon Bedrock-da yerli olaraq işləyir, infrastruktur xərcini aradan qaldırır – istifadəçilər tapşırığı müəyyən edir, rəy verir və Bedrock qalanını idarə edir.

Bundan əlavə, çoxagentli iş yükləri və genişləndirilmiş düşünmə üçün qurulmuş hibrid Mixture-of-Experts (MoE) modeli olan NVIDIA Nemotron 3 Super də tezliklə Amazon Bedrock-da mövcud olacaq. Sİ agentlərinin kompleks, çoxmərhələli iş axınları boyunca dəqiqliyi qorumağa kömək etmək üçün nəzərdə tutulmuş Nemotron 3 Super maliyyə, kiber təhlükəsizlik, pərakəndə satış və proqram təminatı inkişafı daxil olmaqla müxtəlif istifadə hallarına güc verəcək. Bu, mürəkkəb Sİ agentlərinin yerləşdirilməsini sadələşdirən, tam idarə olunan API vasitəsilə sürətli, sərfəli nəticə çıxarma vəd edir.

Əsas elanların xülasəsi:

Feature/IntegrationDescriptionPrimary BenefitAvailability
GPU Yerləşdirməsi1 milyondan çox NVIDIA GPU (Blackwell, Rubin arxitekturaları) AWS Regionlarında.Bütün Sİ/MÖ iş yükləri, agentik Sİ üçün kütləvi hesablama miqyası.2026-cı ildən başlayaraq
Amazon EC2 İnstansiyalarıEC2-də NVIDIA RTX PRO 4500 Blackwell Server Edition GPU-ları üçün dəstək.Çox yönlü Sİ, qrafika, analitika üçün ilk böyük bulud təminatçısı dəstəyi.Tezliklə
BDM Nəticə ÇıxarmaNVIDIA NIXL AWS EFA üzərində ayrılmış BDM nəticə çıxarılmasını GPU-lar və Trainium-lar üzrə sürətləndirmək üçün.BDM-lər üçün minimal kommunikasiya gecikməsi, maksimum GPU istifadəsi.Elan edildi
Apache Spark PerformansıG7e instansiyaları (RTX PRO 6000) ilə EKS üzərində Amazon EMR-də 3 dəfə daha sürətli Spark iş yükləri.Məlumat analitikası, xüsusiyyətlərin mühəndisliyi üçün sürətləndirilmiş bilik əldə etmə vaxtı.Elan edildi
Nemotron İncə TənzimləməsiNemotron modelləri üçün Reinforcement Fine-Tuning (RFT) birbaşa Amazon Bedrock-da.İnfrastruktur xərcsiz domenə xas model davranışı uyğunlaşması.Tezliklə
Nemotron 3 SuperÇoxagentli iş yükləri və genişləndirilmiş düşünmə üçün hibrid MoE modeli Amazon Bedrock-da.Kompleks, çoxmərhələli Sİ tapşırıqları üçün sürətli, sərfəli nəticə çıxarma.Tezliklə

Enerji Səmərəliliyi və Davamlı Sİ-yə Öhdəlik

Sİ iş yükləri eksponensial olaraq böyüməyə davam etdikcə, əsas infrastrukturun səmərəliliyi və davamlılığı son dərəcə vacib olur. Əməkdaşlıq həm də enerji səmərəliliyinin yaxşılaşdırılmasına qarşılıqlı öhdəliyi vurğulayır. Vatt başına performans artıq təkcə davamlılıq metriki deyil, Sİ sahəsində əhəmiyyətli bir rəqabət üstünlüyüdür.

NVIDIA GTC 2026-da Amazon-un CSO-su Kara Hurst, Sİ-nin müəssisə enerjisi və infrastrukturunu miqyaslı şəkildə necə əsaslı şəkildə dəyişdirdiyini müzakirə etmək üçün digər davamlılıq liderlərinə qoşuldu. Bu müzakirə, təkcə güclü deyil, həm də ətraf mühitə qarşı məsuliyyətli Sİ həllərinin hazırlanması və yerləşdirilməsinə diqqəti vurğulayır, aktiv şəbəkə iştirakçıları kimi optimallaşdırılmış məlumat mərkəzlərindən daha geniş müəssisə Sİ tətbiqlərinə qədər. Bu qabaqcıl düşüncə tərzi, Sİ hesablama sahəsindəki irəliləyişlərin qlobal davamlılıq məqsədləri ilə uyğunlaşmasını təmin edir.

Tez-tez Verilən Suallar

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Xəbərdar olun

Ən son AI xəbərlərini e-poçtunuza alın.

Paylaş