Code Velocity
Корпоративний ШІ

AWS, NVIDIA поглиблюють співпрацю в галузі ШІ для прискорення виробництва

·5 хв читання·AWS, NVIDIA·Першоджерело
Поділитися
Виразно відображені логотипи AWS та NVIDIA, що символізують їхню розширену стратегічну співпрацю для прискорення та інновацій у сфері ШІ.

AWS, NVIDIA поглиблюють співпрацю в галузі ШІ для прискорення переходу від пілота до виробництва

ШІ трансформує галузі з безпрецедентною швидкістю, але справжня цінність полягає не лише в експериментах, а в успішному розгортанні та експлуатації рішень ШІ у виробничих середовищах. Це вимагає надійних, масштабованих, безпечних та відповідних систем, які забезпечують відчутні бізнес-результати. Задовольняючи цю критичну потребу, AWS та NVIDIA оголосили про значне розширення своєї стратегічної співпраці на NVIDIA GTC 2026, представивши нові технологічні інтеграції, розроблені для задоволення зростаючого попиту на обчислення ШІ та просування рішень ШІ у реальне виробництво.

Поглиблене партнерство зосереджується на прискоренні кожного аспекту життєвого циклу ШІ, від інфраструктури до розгортання моделей. Ці інтеграції охоплюють такі важливі сфери, як прискорені обчислення, передові технології взаємоз'єднання та оптимізоване тонке налаштування моделей та висновок. Ключові оголошення включають:

  • Розгортання понад 1 мільйона GPU NVIDIA в регіонах AWS, починаючи з 2026 року.
  • Підтримка Amazon EC2 для GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, що робить AWS першим великим хмарним провайдером, який пропонує це.
  • Прискорення взаємоз'єднання для дезагрегованого висновку великих мовних моделей (LLM) за допомогою NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
  • Значне 3-кратне прискорення продуктивності для робочих навантажень Apache Spark за допомогою Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) з екземплярами Amazon EC2 G7e, що працюють на GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
  • Розширена підтримка моделей NVIDIA Nemotron на Amazon Bedrock, включаючи Reinforcement Fine-Tuning та модель Nemotron 3 Super.

Масштабування інфраструктури ШІ за допомогою розширеної потужності GPU NVIDIA

Основа сучасного ШІ лежить у потужній обчислювальній інфраструктурі. Починаючи з 2026 року, AWS бере на себе монументальні зобов'язання щодо розвитку ШІ, додаючи понад 1 мільйон GPU NVIDIA до своїх глобальних хмарних регіонів. Це включає архітектури GPU наступного покоління Blackwell та Rubin, що гарантує клієнтам доступ до найсучаснішого доступного обладнання. AWS вже може похвалитися найширшою в галузі колекцією екземплярів на базі GPU NVIDIA, що задовольняють різноманітні робочі навантаження ШІ/МО, і це розширення ще більше зміцнює її лідерство.

Це довгострокове партнерство, що триває понад 15 років, також поширюється на такі важливі інфраструктурні сфери, як мережі Spectrum. Мета полягає в тому, щоб надати підприємствам, стартапам та дослідникам надійну інфраструктуру, необхідну для створення та масштабування передових агентних систем ШІ — ШІ, здатної до автономного міркування, планування та дії у складних робочих процесах.

Представляємо нові екземпляри Amazon EC2 та інновації у взаємоз'єднаннях

Особливістю співпраці є майбутні екземпляри Amazon EC2, прискорені GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS пишається тим, що є першим великим хмарним провайдером, який оголошує про підтримку цих потужних GPU, роблячи їх доступними для широкого спектру вимогливих завдань. Ці екземпляри ідеально підходять для аналітики даних, витонченого розмовного ШІ, динамічної генерації контенту, передових рекомендаційних систем, високоякісного потокового відео та складних графічних робочих навантажень.

Ці нові екземпляри EC2 будуть побудовані на надійній AWS Nitro System. Система Nitro, завдяки унікальному поєднанню виділеного обладнання та легковесного гіпервізора, надає майже всі обчислювальні ресурси та ресурси пам'яті хост-обладнання безпосередньо екземплярам. Така конструкція забезпечує чудову утилізацію ресурсів та продуктивність. Важливо, що спеціалізоване обладнання, програмне забезпечення та мікропрограми системи Nitro розроблені для забезпечення жорстких обмежень, захищаючи чутливі робочі навантаження ШІ та дані від несанкціонованого доступу, навіть зсередини AWS. Її здатність виконувати оновлення мікропрограм та оптимізації під час роботи додатково підвищує безпеку та стабільність, необхідні для ШІ, аналітики та графічних робочих навантажень виробничого рівня.

Подальше підвищення продуктивності, особливо для масивних моделей ШІ, забезпечується прискоренням взаємоз'єднань для дезагрегованого висновку LLM. Зі зростанням розмірів моделей, накладні витрати на зв'язок між GPU або екземплярами AWS Trainium можуть стати значним вузьким місцем. AWS оголосила про підтримку NVIDIA Inference Xfer Library (NIXL) з AWS Elastic Fabric Adapter (EFA), розробленої для прискорення дезагрегованого висновку LLM на Amazon EC2, що охоплює як GPU NVIDIA, так і AWS Trainium. Ця інтеграція є життєво важливою для масштабування сучасних робочих навантажень ШІ, що дозволяє ефективно накладати зв'язок та обчислення, мінімізувати затримки та максимізувати використання GPU. Вона полегшує високопродуктивне переміщення даних KV-кешу з низькою затримкою між обчислювальними вузлами та розподіленими ресурсами пам'яті. NIXL з EFA інтегрується нативно з популярними відкритими фреймворками, такими як NVIDIA Dynamo, vLLM та SGLang, забезпечуючи покращену затримку між токенами та більш ефективне використання пам'яті KV-кешу.

Прискорення аналітики даних за допомогою Amazon EMR та GPU

Інженери та вчені з даних часто стикаються з тривалими конвеєрами обробки даних, які можуть значно перешкоджати ітераціям моделей ШІ/МО та генерації бізнес-аналітики. Співпраця AWS та NVIDIA забезпечує значне покращення: 3-кратне прискорення продуктивності для робочих навантажень Apache Spark. Це прискорення досягається за рахунок використання Amazon EMR на Amazon EKS з екземплярами G7e, що працюють на GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.

Це суттєве підвищення продуктивності є прямим результатом спільних інженерних зусиль, спрямованих на оптимізацію GPU-прискореної аналітики. Завдяки Amazon EMR та екземплярам G7e, організації можуть значно скоротити час, необхідний для інженерії функцій ШІ/МО, складних трансформацій ETL та аналітики в реальному часі у масштабі. Клієнти, які використовують великомасштабні конвеєри обробки даних, можуть досягти швидшого отримання інсайтів, зберігаючи повну сумісність зі своїми існуючими додатками Spark.

Розширена підтримка моделей NVIDIA Nemotron на Amazon Bedrock

AWS та NVIDIA також розширюють свою співпрацю щодо фундаментальних моделей, впроваджуючи передові моделі NVIDIA Nemotron в Amazon Bedrock.

Розробники незабаром матимуть можливість тонко налаштовувати моделі NVIDIA Nemotron безпосередньо на Amazon Bedrock за допомогою Reinforcement Fine-Tuning (RFT). Це змінює правила гри для команд, яким потрібно адаптувати поведінку моделі до конкретних доменів, будь то юридична, медична, фінансова або інші спеціалізовані галузі. RFT дає користувачам можливість формувати те, як модель міркує та відповідає, виходячи за межі простого отримання знань до нюансованого поведінкового узгодження. Важливо, що це працює нативно на Amazon Bedrock, усуваючи накладні витрати на інфраструктуру – користувачі визначають завдання, надають зворотний зв'язок, а Bedrock керує рештою.

Крім того, NVIDIA Nemotron 3 Super, гібридна модель Mixture-of-Experts (MoE), створена для багатоагентних робочих навантажень та розширеного міркування, також незабаром з'явиться на Amazon Bedrock. Розроблена для допомоги агентам ШІ підтримувати точність у складних, багатоетапних робочих процесах, Nemotron 3 Super забезпечить різноманітні сценарії використання, що охоплюють фінанси, кібербезпеку, роздрібну торгівлю та розробку програмного забезпечення. Вона обіцяє швидкий, економічно ефективний висновок через повністю керований API, спрощуючи розгортання складних агентів ШІ.

Ось короткий опис ключових оголошень:

Особливість/ІнтеграціяОписОсновна перевагаДоступність
Розгортання GPUПонад 1 мільйон GPU NVIDIA (архітектури Blackwell, Rubin) у регіонах AWS.Масштабний обчислювальний потенціал для всіх робочих навантажень ШІ/МО, агентного ШІ.Починаючи з 2026
Екземпляри Amazon EC2Підтримка GPU NVIDIA RTX PRO 4500 Blackwell Server Edition на EC2.Перша велика хмарна підтримка для універсального ШІ, графіки, аналітики.Незабаром
Висновок LLMNVIDIA NIXL на AWS EFA для прискореного дезагрегованого висновку LLM на GPU та Trainium.Мінімізована затримка зв'язку, максимізоване використання GPU для LLM.Оголошено
Продуктивність Apache Spark3-кратне прискорення робочих навантажень Spark на Amazon EMR на EKS з екземплярами G7e (RTX PRO 6000).Прискорений час до отримання інсайтів для аналітики даних, інженерії функцій.Оголошено
Тонке налаштування NemotronReinforcement Fine-Tuning (RFT) для моделей Nemotron безпосередньо на Amazon Bedrock.Вирівнювання поведінки моделі для конкретного домену без накладних витрат на інфраструктуру.Незабаром
Nemotron 3 SuperГібридна модель MoE для багатоагентних робочих навантажень та розширеного міркування на Amazon Bedrock.Швидкий, економічно ефективний висновок для складних, багатоетапних завдань ШІ.Незабаром

Відданість енергоефективності та сталому ШІ

Оскільки робочі навантаження ШІ продовжують зростати експоненціально, ефективність та стійкість базової інфраструктури стають першорядними. Співпраця також підкреслює спільне зобов'язання щодо покращення енергоефективності. Продуктивність на ват більше не є лише показником сталості, а значною конкурентною перевагою в ландшафті ШІ.

На NVIDIA GTC 2026 директор з корпоративної соціальної відповідальності Amazon Кара Херст приєдналася до інших лідерів зі сталості, щоб обговорити, як ШІ кардинально трансформує корпоративну енергетику та інфраструктуру у масштабі. Ця дискусія підкреслює акцент на розробці та розгортанні рішень ШІ, які є не тільки потужними, але й екологічно відповідальними, від центрів обробки даних, оптимізованих як активні учасники мережі, до ширших корпоративних застосувань ШІ. Цей далекоглядний підхід гарантує, що досягнення в обчисленнях ШІ узгоджуються з глобальними цілями сталості.

Поширені запитання

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Будьте в курсі

Отримуйте найсвіжіші новини ШІ на пошту.

Поділитися