Code Velocity
Корпоративный ИИ

AWS и NVIDIA углубляют сотрудничество в области ИИ для ускорения вывода в производство

·5 мин чтения·AWS, NVIDIA·Первоисточник
Поделиться
Логотипы AWS и NVIDIA, наглядно демонстрирующие их расширенное стратегическое сотрудничество в области ускорения и инноваций ИИ.

AWS и NVIDIA углубляют сотрудничество в области ИИ для ускорения вывода из пилотной стадии в производство

ИИ преобразует отрасли беспрецедентными темпами, но истинная ценность заключается не только в экспериментах, но и в успешном развертывании и эксплуатации решений ИИ в производственных средах. Это требует надежных, масштабируемых, безопасных и соответствующих требованиям систем, которые обеспечивают ощутимые бизнес-результаты. Учитывая эту критическую потребность, AWS и NVIDIA объявили о значительном расширении своего стратегического сотрудничества на NVIDIA GTC 2026, представив новые технологические интеграции, разработанные для удовлетворения растущего спроса на вычислительные мощности ИИ и продвижения решений ИИ в реальное производство.

Углубленное партнерство направлено на ускорение каждого аспекта жизненного цикла ИИ, от инфраструктуры до развертывания моделей. Эти интеграции охватывают такие важные области, как ускоренные вычисления, передовые технологии межсоединений, а также оптимизированную тонкую настройку моделей и инференс. Ключевые объявления включают:

  • Развертывание более 1 миллиона NVIDIA GPU в регионах AWS, начиная с 2026 года.
  • Поддержка Amazon EC2 для NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, что делает AWS первым крупным облачным провайдером, предлагающим это.
  • Ускорение межсоединений для дезагрегированного инференса больших языковых моделей (LLM) с использованием NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
  • Значительное увеличение производительности Apache Spark в 3 раза при использовании Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) с экземплярами Amazon EC2 G7e, работающими на NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
  • Расширенная поддержка моделей NVIDIA Nemotron на Amazon Bedrock, включая тонкую настройку с подкреплением (Reinforcement Fine-Tuning) и модель Nemotron 3 Super.

Масштабирование инфраструктуры ИИ с повышенной мощностью NVIDIA GPU

Основа современного ИИ лежит в мощной вычислительной инфраструктуре. Начиная с 2026 года, AWS берет на себя монументальное обязательство по развитию ИИ, добавляя более 1 миллиона NVIDIA GPU в свои глобальные облачные регионы. Это включает архитектуры GPU следующего поколения Blackwell и Rubin, гарантируя клиентам доступ к самому передовому оборудованию. AWS уже может похвастаться самым широким в отрасли набором экземпляров на базе NVIDIA GPU, обслуживающих разнообразные рабочие нагрузки ИИ/МО, и это расширение еще больше укрепляет ее лидерство.

Это многолетнее партнерство, насчитывающее более 15 лет, также распространяется на такие критически важные области инфраструктуры, как сетевые решения Spectrum. Цель состоит в том, чтобы предоставить предприятиям, стартапам и исследователям надежную инфраструктуру, необходимую для создания и масштабирования передовых агентских систем ИИ — ИИ, способного к автономному рассуждению, планированию и действиям в сложных рабочих процессах.

Представление новых экземпляров Amazon EC2 и инноваций в межсоединениях

Одним из основных моментов сотрудничества являются грядущие экземпляры Amazon EC2, ускоренные NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS гордится тем, что является первым крупным облачным провайдером, объявившим о поддержке этих мощных GPU, делая их доступными для широкого спектра ресурсоемких задач. Эти экземпляры идеально подходят для анализа данных, сложного разговорного ИИ, динамической генерации контента, продвинутых рекомендательных систем, высококачественного потокового видео и сложных графических рабочих нагрузок.

Эти новые экземпляры EC2 будут построены на надежной AWS Nitro System. Система Nitro System, с ее уникальным сочетанием выделенного оборудования и легковесного гипервизора, предоставляет почти все вычислительные ресурсы и ресурсы памяти хост-оборудования непосредственно экземплярам. Эта конструкция обеспечивает превосходное использование ресурсов и производительность. Важно отметить, что специализированное оборудование, программное обеспечение и прошивка Nitro System спроектированы для обеспечения строгих ограничений, защищая конфиденциальные рабочие нагрузки и данные ИИ от несанкционированного доступа, даже изнутри AWS. Ее способность выполнять обновления и оптимизации прошивки во время работы еще больше повышает безопасность и стабильность, необходимые для ИИ, аналитики и графических рабочих нагрузок производственного уровня.

Дальнейшее повышение производительности, особенно для массивных моделей ИИ, обеспечивает ускорение межсоединений для дезагрегированного инференса LLM. По мере того как размеры моделей продолжают расти, накладные расходы на связь между GPU или экземплярами AWS Trainium могут стать значительным узким местом. AWS объявила о поддержке NVIDIA Inference Xfer Library (NIXL) с AWS Elastic Fabric Adapter (EFA), разработанной для ускорения дезагрегированного инференса LLM на Amazon EC2, охватывающего как NVIDIA GPU, так и AWS Trainium. Эта интеграция жизненно важна для масштабирования современных рабочих нагрузок ИИ, обеспечивая эффективное наложение связи и вычислений, минимизацию задержки и максимизацию использования GPU. Она облегчает высокопроизводительную передачу данных KV-кэша с низкой задержкой между вычислительными узлами и распределенными ресурсами памяти. NIXL с EFA нативно интегрируется с популярными фреймворками с открытым исходным кодом, такими как NVIDIA Dynamo, vLLM и SGLang, обеспечивая улучшенную задержку между токенами и более эффективное использование памяти KV-кэша.

Ускорение анализа данных с помощью Amazon EMR и GPU

Инженеры и специалисты по данным часто сталкиваются с длительными конвейерами обработки данных, которые могут значительно затруднять итерацию моделей ИИ/МО и генерацию бизнес-аналитики. Сотрудничество AWS и NVIDIA обеспечивает новаторское улучшение: в 3 раза более высокую производительность для рабочих нагрузок Apache Spark. Это ускорение достигается за счет использования Amazon EMR на Amazon EKS с экземплярами G7e, работающими на NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.

Этот существенный прирост производительности является прямым результатом совместных инженерных усилий, направленных на оптимизацию GPU-ускоренной аналитики. С Amazon EMR и экземплярами G7e организации могут значительно сократить время, необходимое для инжиниринга признаков для ИИ/МО, сложных ETL-преобразований и аналитики в реальном времени в масштабе. Клиенты, запускающие крупномасштабные конвейеры обработки данных, могут быстрее получать аналитические данные, сохраняя при этом полную совместимость с существующими приложениями Spark.

Расширение поддержки моделей NVIDIA Nemotron на Amazon Bedrock

AWS и NVIDIA также расширяют свое сотрудничество по фундаментальным моделям, внедряя передовые модели NVIDIA Nemotron в Amazon Bedrock.

Разработчики скоро получат возможность тонкой настройки моделей NVIDIA Nemotron непосредственно на Amazon Bedrock с использованием тонкой настройки с подкреплением (RFT). Это революционное решение для команд, которым необходимо адаптировать поведение модели к конкретным предметным областям, будь то юриспруденция, здравоохранение, финансы или другие специализированные области. RFT дает пользователям возможность формировать то, как модель рассуждает и реагирует, выходя за рамки простого получения знаний к тонкой поведенческой адаптации. Важно отметить, что это работает нативно в Amazon Bedrock, устраняя накладные расходы на инфраструктуру – пользователи определяют задачу, предоставляют обратную связь, а Bedrock управляет всем остальным.

Кроме того, NVIDIA Nemotron 3 Super, гибридная модель «Смесь экспертов» (MoE), созданная для многоагентных рабочих нагрузок и расширенного рассуждения, также скоро появится в Amazon Bedrock. Разработанная для того, чтобы помочь ИИ-агентам поддерживать точность в сложных многошаговых рабочих процессах, Nemotron 3 Super будет поддерживать разнообразные сценарии использования, охватывающие финансы, кибербезопасность, розничную торговлю и разработку программного обеспечения. Она обещает быстрый, экономичный инференс через полностью управляемый API, упрощая развертывание сложных ИИ-агентов.

Ниже приведена сводка ключевых объявлений:

Feature/IntegrationDescriptionPrimary BenefitAvailability
Развертывание GPUБолее 1 миллиона NVIDIA GPU (архитектуры Blackwell, Rubin) во всех регионах AWS.Масштабные вычислительные мощности для всех рабочих нагрузок ИИ/МО, агентского ИИ.Начиная с 2026 г.
Экземпляры Amazon EC2Поддержка NVIDIA RTX PRO 4500 Blackwell Server Edition GPU на EC2.Первая поддержка крупным облачным провайдером для универсального ИИ, графики, аналитики.Скоро
Инференс LLMNVIDIA NIXL на AWS EFA для ускоренного дезагрегированного инференса LLM на GPU и Trainium.Минимизация задержки связи, максимизация использования GPU для LLM.Анонсировано
Производительность Apache SparkВ 3 раза более высокая производительность Spark на Amazon EMR на EKS с экземплярами G7e (RTX PRO 6000).Ускоренное получение аналитических данных для анализа данных, инжиниринга признаков.Анонсировано
Тонкая настройка NemotronТонкая настройка с подкреплением (RFT) для моделей Nemotron непосредственно на Amazon Bedrock.Адаптация поведения модели под конкретную предметную область без накладных расходов на инфраструктуру.Скоро
Nemotron 3 SuperГибридная модель MoE для многоагентных рабочих нагрузок и расширенного рассуждения на Amazon Bedrock.Быстрый, экономичный инференс для сложных, многошаговых задач ИИ.Скоро

Приверженность энергоэффективности и устойчивому развитию ИИ

По мере того как рабочие нагрузки ИИ растут в геометрической прогрессии, эффективность и устойчивость базовой инфраструктуры приобретают первостепенное значение. Сотрудничество также подчеркивает общую приверженность повышению энергоэффективности. Производительность на ватт больше не является просто метрикой устойчивости, но и значительным конкурентным преимуществом в ландшафте ИИ.

На NVIDIA GTC 2026 директор по устойчивому развитию Amazon Кара Хёрст присоединилась к другим лидерам в области устойчивого развития, чтобы обсудить, как ИИ фундаментально преобразует энергетику и инфраструктуру предприятий в масштабе. Эта дискуссия подчеркивает акцент на разработке и развертывании решений ИИ, которые не только мощны, но и экологически ответственны, от центров обработки данных, оптимизированных как активные участники сети, до более широких корпоративных приложений ИИ. Такой дальновидный подход гарантирует, что достижения в области вычислений ИИ соответствуют глобальным целям устойчивого развития.

Часто задаваемые вопросы

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться