AWS, NVIDIA поглиблюють співпрацю в галузі ШІ для прискорення переходу від пілота до виробництва
ШІ трансформує галузі з безпрецедентною швидкістю, але справжня цінність полягає не лише в експериментах, а в успішному розгортанні та експлуатації рішень ШІ у виробничих середовищах. Це вимагає надійних, масштабованих, безпечних та відповідних систем, які забезпечують відчутні бізнес-результати. Задовольняючи цю критичну потребу, AWS та NVIDIA оголосили про значне розширення своєї стратегічної співпраці на NVIDIA GTC 2026, представивши нові технологічні інтеграції, розроблені для задоволення зростаючого попиту на обчислення ШІ та просування рішень ШІ у реальне виробництво.
Поглиблене партнерство зосереджується на прискоренні кожного аспекту життєвого циклу ШІ, від інфраструктури до розгортання моделей. Ці інтеграції охоплюють такі важливі сфери, як прискорені обчислення, передові технології взаємоз'єднання та оптимізоване тонке налаштування моделей та висновок. Ключові оголошення включають:
- Розгортання понад 1 мільйона GPU NVIDIA в регіонах AWS, починаючи з 2026 року.
- Підтримка Amazon EC2 для GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, що робить AWS першим великим хмарним провайдером, який пропонує це.
- Прискорення взаємоз'єднання для дезагрегованого висновку великих мовних моделей (LLM) за допомогою NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
- Значне 3-кратне прискорення продуктивності для робочих навантажень Apache Spark за допомогою Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) з екземплярами Amazon EC2 G7e, що працюють на GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
- Розширена підтримка моделей NVIDIA Nemotron на Amazon Bedrock, включаючи Reinforcement Fine-Tuning та модель Nemotron 3 Super.
Масштабування інфраструктури ШІ за допомогою розширеної потужності GPU NVIDIA
Основа сучасного ШІ лежить у потужній обчислювальній інфраструктурі. Починаючи з 2026 року, AWS бере на себе монументальні зобов'язання щодо розвитку ШІ, додаючи понад 1 мільйон GPU NVIDIA до своїх глобальних хмарних регіонів. Це включає архітектури GPU наступного покоління Blackwell та Rubin, що гарантує клієнтам доступ до найсучаснішого доступного обладнання. AWS вже може похвалитися найширшою в галузі колекцією екземплярів на базі GPU NVIDIA, що задовольняють різноманітні робочі навантаження ШІ/МО, і це розширення ще більше зміцнює її лідерство.
Це довгострокове партнерство, що триває понад 15 років, також поширюється на такі важливі інфраструктурні сфери, як мережі Spectrum. Мета полягає в тому, щоб надати підприємствам, стартапам та дослідникам надійну інфраструктуру, необхідну для створення та масштабування передових агентних систем ШІ — ШІ, здатної до автономного міркування, планування та дії у складних робочих процесах.
Представляємо нові екземпляри Amazon EC2 та інновації у взаємоз'єднаннях
Особливістю співпраці є майбутні екземпляри Amazon EC2, прискорені GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS пишається тим, що є першим великим хмарним провайдером, який оголошує про підтримку цих потужних GPU, роблячи їх доступними для широкого спектру вимогливих завдань. Ці екземпляри ідеально підходять для аналітики даних, витонченого розмовного ШІ, динамічної генерації контенту, передових рекомендаційних систем, високоякісного потокового відео та складних графічних робочих навантажень.
Ці нові екземпляри EC2 будуть побудовані на надійній AWS Nitro System. Система Nitro, завдяки унікальному поєднанню виділеного обладнання та легковесного гіпервізора, надає майже всі обчислювальні ресурси та ресурси пам'яті хост-обладнання безпосередньо екземплярам. Така конструкція забезпечує чудову утилізацію ресурсів та продуктивність. Важливо, що спеціалізоване обладнання, програмне забезпечення та мікропрограми системи Nitro розроблені для забезпечення жорстких обмежень, захищаючи чутливі робочі навантаження ШІ та дані від несанкціонованого доступу, навіть зсередини AWS. Її здатність виконувати оновлення мікропрограм та оптимізації під час роботи додатково підвищує безпеку та стабільність, необхідні для ШІ, аналітики та графічних робочих навантажень виробничого рівня.
Подальше підвищення продуктивності, особливо для масивних моделей ШІ, забезпечується прискоренням взаємоз'єднань для дезагрегованого висновку LLM. Зі зростанням розмірів моделей, накладні витрати на зв'язок між GPU або екземплярами AWS Trainium можуть стати значним вузьким місцем. AWS оголосила про підтримку NVIDIA Inference Xfer Library (NIXL) з AWS Elastic Fabric Adapter (EFA), розробленої для прискорення дезагрегованого висновку LLM на Amazon EC2, що охоплює як GPU NVIDIA, так і AWS Trainium. Ця інтеграція є життєво важливою для масштабування сучасних робочих навантажень ШІ, що дозволяє ефективно накладати зв'язок та обчислення, мінімізувати затримки та максимізувати використання GPU. Вона полегшує високопродуктивне переміщення даних KV-кешу з низькою затримкою між обчислювальними вузлами та розподіленими ресурсами пам'яті. NIXL з EFA інтегрується нативно з популярними відкритими фреймворками, такими як NVIDIA Dynamo, vLLM та SGLang, забезпечуючи покращену затримку між токенами та більш ефективне використання пам'яті KV-кешу.
Прискорення аналітики даних за допомогою Amazon EMR та GPU
Інженери та вчені з даних часто стикаються з тривалими конвеєрами обробки даних, які можуть значно перешкоджати ітераціям моделей ШІ/МО та генерації бізнес-аналітики. Співпраця AWS та NVIDIA забезпечує значне покращення: 3-кратне прискорення продуктивності для робочих навантажень Apache Spark. Це прискорення досягається за рахунок використання Amazon EMR на Amazon EKS з екземплярами G7e, що працюють на GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
Це суттєве підвищення продуктивності є прямим результатом спільних інженерних зусиль, спрямованих на оптимізацію GPU-прискореної аналітики. Завдяки Amazon EMR та екземплярам G7e, організації можуть значно скоротити час, необхідний для інженерії функцій ШІ/МО, складних трансформацій ETL та аналітики в реальному часі у масштабі. Клієнти, які використовують великомасштабні конвеєри обробки даних, можуть досягти швидшого отримання інсайтів, зберігаючи повну сумісність зі своїми існуючими додатками Spark.
Розширена підтримка моделей NVIDIA Nemotron на Amazon Bedrock
AWS та NVIDIA також розширюють свою співпрацю щодо фундаментальних моделей, впроваджуючи передові моделі NVIDIA Nemotron в Amazon Bedrock.
Розробники незабаром матимуть можливість тонко налаштовувати моделі NVIDIA Nemotron безпосередньо на Amazon Bedrock за допомогою Reinforcement Fine-Tuning (RFT). Це змінює правила гри для команд, яким потрібно адаптувати поведінку моделі до конкретних доменів, будь то юридична, медична, фінансова або інші спеціалізовані галузі. RFT дає користувачам можливість формувати те, як модель міркує та відповідає, виходячи за межі простого отримання знань до нюансованого поведінкового узгодження. Важливо, що це працює нативно на Amazon Bedrock, усуваючи накладні витрати на інфраструктуру – користувачі визначають завдання, надають зворотний зв'язок, а Bedrock керує рештою.
Крім того, NVIDIA Nemotron 3 Super, гібридна модель Mixture-of-Experts (MoE), створена для багатоагентних робочих навантажень та розширеного міркування, також незабаром з'явиться на Amazon Bedrock. Розроблена для допомоги агентам ШІ підтримувати точність у складних, багатоетапних робочих процесах, Nemotron 3 Super забезпечить різноманітні сценарії використання, що охоплюють фінанси, кібербезпеку, роздрібну торгівлю та розробку програмного забезпечення. Вона обіцяє швидкий, економічно ефективний висновок через повністю керований API, спрощуючи розгортання складних агентів ШІ.
Ось короткий опис ключових оголошень:
| Особливість/Інтеграція | Опис | Основна перевага | Доступність |
|---|---|---|---|
| Розгортання GPU | Понад 1 мільйон GPU NVIDIA (архітектури Blackwell, Rubin) у регіонах AWS. | Масштабний обчислювальний потенціал для всіх робочих навантажень ШІ/МО, агентного ШІ. | Починаючи з 2026 |
| Екземпляри Amazon EC2 | Підтримка GPU NVIDIA RTX PRO 4500 Blackwell Server Edition на EC2. | Перша велика хмарна підтримка для універсального ШІ, графіки, аналітики. | Незабаром |
| Висновок LLM | NVIDIA NIXL на AWS EFA для прискореного дезагрегованого висновку LLM на GPU та Trainium. | Мінімізована затримка зв'язку, максимізоване використання GPU для LLM. | Оголошено |
| Продуктивність Apache Spark | 3-кратне прискорення робочих навантажень Spark на Amazon EMR на EKS з екземплярами G7e (RTX PRO 6000). | Прискорений час до отримання інсайтів для аналітики даних, інженерії функцій. | Оголошено |
| Тонке налаштування Nemotron | Reinforcement Fine-Tuning (RFT) для моделей Nemotron безпосередньо на Amazon Bedrock. | Вирівнювання поведінки моделі для конкретного домену без накладних витрат на інфраструктуру. | Незабаром |
| Nemotron 3 Super | Гібридна модель MoE для багатоагентних робочих навантажень та розширеного міркування на Amazon Bedrock. | Швидкий, економічно ефективний висновок для складних, багатоетапних завдань ШІ. | Незабаром |
Відданість енергоефективності та сталому ШІ
Оскільки робочі навантаження ШІ продовжують зростати експоненціально, ефективність та стійкість базової інфраструктури стають першорядними. Співпраця також підкреслює спільне зобов'язання щодо покращення енергоефективності. Продуктивність на ват більше не є лише показником сталості, а значною конкурентною перевагою в ландшафті ШІ.
На NVIDIA GTC 2026 директор з корпоративної соціальної відповідальності Amazon Кара Херст приєдналася до інших лідерів зі сталості, щоб обговорити, як ШІ кардинально трансформує корпоративну енергетику та інфраструктуру у масштабі. Ця дискусія підкреслює акцент на розробці та розгортанні рішень ШІ, які є не тільки потужними, але й екологічно відповідальними, від центрів обробки даних, оптимізованих як активні учасники мережі, до ширших корпоративних застосувань ШІ. Цей далекоглядний підхід гарантує, що досягнення в обчисленнях ШІ узгоджуються з глобальними цілями сталості.
Поширені запитання
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Будьте в курсі
Отримуйте найсвіжіші новини ШІ на пошту.
