AWS и NVIDIA углубляют сотрудничество в области ИИ для ускорения вывода из пилотной стадии в производство
ИИ преобразует отрасли беспрецедентными темпами, но истинная ценность заключается не только в экспериментах, но и в успешном развертывании и эксплуатации решений ИИ в производственных средах. Это требует надежных, масштабируемых, безопасных и соответствующих требованиям систем, которые обеспечивают ощутимые бизнес-результаты. Учитывая эту критическую потребность, AWS и NVIDIA объявили о значительном расширении своего стратегического сотрудничества на NVIDIA GTC 2026, представив новые технологические интеграции, разработанные для удовлетворения растущего спроса на вычислительные мощности ИИ и продвижения решений ИИ в реальное производство.
Углубленное партнерство направлено на ускорение каждого аспекта жизненного цикла ИИ, от инфраструктуры до развертывания моделей. Эти интеграции охватывают такие важные области, как ускоренные вычисления, передовые технологии межсоединений, а также оптимизированную тонкую настройку моделей и инференс. Ключевые объявления включают:
- Развертывание более 1 миллиона NVIDIA GPU в регионах AWS, начиная с 2026 года.
- Поддержка Amazon EC2 для NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, что делает AWS первым крупным облачным провайдером, предлагающим это.
- Ускорение межсоединений для дезагрегированного инференса больших языковых моделей (LLM) с использованием NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
- Значительное увеличение производительности Apache Spark в 3 раза при использовании Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) с экземплярами Amazon EC2 G7e, работающими на NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
- Расширенная поддержка моделей NVIDIA Nemotron на Amazon Bedrock, включая тонкую настройку с подкреплением (Reinforcement Fine-Tuning) и модель Nemotron 3 Super.
Масштабирование инфраструктуры ИИ с повышенной мощностью NVIDIA GPU
Основа современного ИИ лежит в мощной вычислительной инфраструктуре. Начиная с 2026 года, AWS берет на себя монументальное обязательство по развитию ИИ, добавляя более 1 миллиона NVIDIA GPU в свои глобальные облачные регионы. Это включает архитектуры GPU следующего поколения Blackwell и Rubin, гарантируя клиентам доступ к самому передовому оборудованию. AWS уже может похвастаться самым широким в отрасли набором экземпляров на базе NVIDIA GPU, обслуживающих разнообразные рабочие нагрузки ИИ/МО, и это расширение еще больше укрепляет ее лидерство.
Это многолетнее партнерство, насчитывающее более 15 лет, также распространяется на такие критически важные области инфраструктуры, как сетевые решения Spectrum. Цель состоит в том, чтобы предоставить предприятиям, стартапам и исследователям надежную инфраструктуру, необходимую для создания и масштабирования передовых агентских систем ИИ — ИИ, способного к автономному рассуждению, планированию и действиям в сложных рабочих процессах.
Представление новых экземпляров Amazon EC2 и инноваций в межсоединениях
Одним из основных моментов сотрудничества являются грядущие экземпляры Amazon EC2, ускоренные NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS гордится тем, что является первым крупным облачным провайдером, объявившим о поддержке этих мощных GPU, делая их доступными для широкого спектра ресурсоемких задач. Эти экземпляры идеально подходят для анализа данных, сложного разговорного ИИ, динамической генерации контента, продвинутых рекомендательных систем, высококачественного потокового видео и сложных графических рабочих нагрузок.
Эти новые экземпляры EC2 будут построены на надежной AWS Nitro System. Система Nitro System, с ее уникальным сочетанием выделенного оборудования и легковесного гипервизора, предоставляет почти все вычислительные ресурсы и ресурсы памяти хост-оборудования непосредственно экземплярам. Эта конструкция обеспечивает превосходное использование ресурсов и производительность. Важно отметить, что специализированное оборудование, программное обеспечение и прошивка Nitro System спроектированы для обеспечения строгих ограничений, защищая конфиденциальные рабочие нагрузки и данные ИИ от несанкционированного доступа, даже изнутри AWS. Ее способность выполнять обновления и оптимизации прошивки во время работы еще больше повышает безопасность и стабильность, необходимые для ИИ, аналитики и графических рабочих нагрузок производственного уровня.
Дальнейшее повышение производительности, особенно для массивных моделей ИИ, обеспечивает ускорение межсоединений для дезагрегированного инференса LLM. По мере того как размеры моделей продолжают расти, накладные расходы на связь между GPU или экземплярами AWS Trainium могут стать значительным узким местом. AWS объявила о поддержке NVIDIA Inference Xfer Library (NIXL) с AWS Elastic Fabric Adapter (EFA), разработанной для ускорения дезагрегированного инференса LLM на Amazon EC2, охватывающего как NVIDIA GPU, так и AWS Trainium. Эта интеграция жизненно важна для масштабирования современных рабочих нагрузок ИИ, обеспечивая эффективное наложение связи и вычислений, минимизацию задержки и максимизацию использования GPU. Она облегчает высокопроизводительную передачу данных KV-кэша с низкой задержкой между вычислительными узлами и распределенными ресурсами памяти. NIXL с EFA нативно интегрируется с популярными фреймворками с открытым исходным кодом, такими как NVIDIA Dynamo, vLLM и SGLang, обеспечивая улучшенную задержку между токенами и более эффективное использование памяти KV-кэша.
Ускорение анализа данных с помощью Amazon EMR и GPU
Инженеры и специалисты по данным часто сталкиваются с длительными конвейерами обработки данных, которые могут значительно затруднять итерацию моделей ИИ/МО и генерацию бизнес-аналитики. Сотрудничество AWS и NVIDIA обеспечивает новаторское улучшение: в 3 раза более высокую производительность для рабочих нагрузок Apache Spark. Это ускорение достигается за счет использования Amazon EMR на Amazon EKS с экземплярами G7e, работающими на NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
Этот существенный прирост производительности является прямым результатом совместных инженерных усилий, направленных на оптимизацию GPU-ускоренной аналитики. С Amazon EMR и экземплярами G7e организации могут значительно сократить время, необходимое для инжиниринга признаков для ИИ/МО, сложных ETL-преобразований и аналитики в реальном времени в масштабе. Клиенты, запускающие крупномасштабные конвейеры обработки данных, могут быстрее получать аналитические данные, сохраняя при этом полную совместимость с существующими приложениями Spark.
Расширение поддержки моделей NVIDIA Nemotron на Amazon Bedrock
AWS и NVIDIA также расширяют свое сотрудничество по фундаментальным моделям, внедряя передовые модели NVIDIA Nemotron в Amazon Bedrock.
Разработчики скоро получат возможность тонкой настройки моделей NVIDIA Nemotron непосредственно на Amazon Bedrock с использованием тонкой настройки с подкреплением (RFT). Это революционное решение для команд, которым необходимо адаптировать поведение модели к конкретным предметным областям, будь то юриспруденция, здравоохранение, финансы или другие специализированные области. RFT дает пользователям возможность формировать то, как модель рассуждает и реагирует, выходя за рамки простого получения знаний к тонкой поведенческой адаптации. Важно отметить, что это работает нативно в Amazon Bedrock, устраняя накладные расходы на инфраструктуру – пользователи определяют задачу, предоставляют обратную связь, а Bedrock управляет всем остальным.
Кроме того, NVIDIA Nemotron 3 Super, гибридная модель «Смесь экспертов» (MoE), созданная для многоагентных рабочих нагрузок и расширенного рассуждения, также скоро появится в Amazon Bedrock. Разработанная для того, чтобы помочь ИИ-агентам поддерживать точность в сложных многошаговых рабочих процессах, Nemotron 3 Super будет поддерживать разнообразные сценарии использования, охватывающие финансы, кибербезопасность, розничную торговлю и разработку программного обеспечения. Она обещает быстрый, экономичный инференс через полностью управляемый API, упрощая развертывание сложных ИИ-агентов.
Ниже приведена сводка ключевых объявлений:
| Feature/Integration | Description | Primary Benefit | Availability |
|---|---|---|---|
| Развертывание GPU | Более 1 миллиона NVIDIA GPU (архитектуры Blackwell, Rubin) во всех регионах AWS. | Масштабные вычислительные мощности для всех рабочих нагрузок ИИ/МО, агентского ИИ. | Начиная с 2026 г. |
| Экземпляры Amazon EC2 | Поддержка NVIDIA RTX PRO 4500 Blackwell Server Edition GPU на EC2. | Первая поддержка крупным облачным провайдером для универсального ИИ, графики, аналитики. | Скоро |
| Инференс LLM | NVIDIA NIXL на AWS EFA для ускоренного дезагрегированного инференса LLM на GPU и Trainium. | Минимизация задержки связи, максимизация использования GPU для LLM. | Анонсировано |
| Производительность Apache Spark | В 3 раза более высокая производительность Spark на Amazon EMR на EKS с экземплярами G7e (RTX PRO 6000). | Ускоренное получение аналитических данных для анализа данных, инжиниринга признаков. | Анонсировано |
| Тонкая настройка Nemotron | Тонкая настройка с подкреплением (RFT) для моделей Nemotron непосредственно на Amazon Bedrock. | Адаптация поведения модели под конкретную предметную область без накладных расходов на инфраструктуру. | Скоро |
| Nemotron 3 Super | Гибридная модель MoE для многоагентных рабочих нагрузок и расширенного рассуждения на Amazon Bedrock. | Быстрый, экономичный инференс для сложных, многошаговых задач ИИ. | Скоро |
Приверженность энергоэффективности и устойчивому развитию ИИ
По мере того как рабочие нагрузки ИИ растут в геометрической прогрессии, эффективность и устойчивость базовой инфраструктуры приобретают первостепенное значение. Сотрудничество также подчеркивает общую приверженность повышению энергоэффективности. Производительность на ватт больше не является просто метрикой устойчивости, но и значительным конкурентным преимуществом в ландшафте ИИ.
На NVIDIA GTC 2026 директор по устойчивому развитию Amazon Кара Хёрст присоединилась к другим лидерам в области устойчивого развития, чтобы обсудить, как ИИ фундаментально преобразует энергетику и инфраструктуру предприятий в масштабе. Эта дискуссия подчеркивает акцент на разработке и развертывании решений ИИ, которые не только мощны, но и экологически ответственны, от центров обработки данных, оптимизированных как активные участники сети, до более широких корпоративных приложений ИИ. Такой дальновидный подход гарантирует, что достижения в области вычислений ИИ соответствуют глобальным целям устойчивого развития.
Часто задаваемые вопросы
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
Будьте в курсе
Получайте последние новости ИИ на почту.
