Code Velocity
Корпоративен ИИ

AWS, NVIDIA задълбочават сътрудничеството си в областта на ИИ за ускоряване на прехода от пилотни проекти към производство

·5 мин четене·AWS, NVIDIA·Оригинален източник
Сподели
Логотата на AWS и NVIDIA са ясно показани, символизиращи тяхното разширено стратегическо сътрудничество за ускоряване на ИИ и иновации.

title: "AWS, NVIDIA задълбочават сътрудничеството си в областта на ИИ за ускоряване на прехода от пилотни проекти към производство" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "bg" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Корпоративен ИИ" keywords:

  • AWS
  • NVIDIA
  • Ускорение на ИИ
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • Извод на LLM
  • EFA
  • Apache Spark
  • Корпоративен ИИ
  • Производствен ИИ
  • Машинно обучение meta_description: "AWS и NVIDIA задълбочават стратегическото си сътрудничество на GTC 2026, обявявайки основни интеграции за ускоряване на ИИ от пилотни проекти до производство, включително разширено внедряване на GPU, нови EC2 инстанции и поддръжка на модели Nemotron на Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Логотата на AWS и NVIDIA са ясно показани, символизиращи тяхното разширено стратегическо сътрудничество за ускоряване на ИИ и иновации." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Каква е основната цел на разширеното стратегическо сътрудничество между AWS и NVIDIA?" answer: "Сътрудничеството цели да ускори прехода на ИИ решенията от експериментални фази към пълномащабни производствени среди. Това включва интегриране на нови технологии и разширяване на съществуващите възможности в областта на ускорените изчисления, междусистемните технологии, фината настройка на модели и извода. Фокусът е върху това да се даде възможност на клиентите да изграждат и управляват ИИ решения, които са надеждни, производителни в мащаб и съобразени с корпоративните изисквания за сигурност и регулации, като в крайна сметка постигат значими бизнес резултати чрез готови за производство ИИ системи."
  • question: "Какви значителни разширения на GPU инфраструктурата планира AWS като част от това сътрудничество?" answer: "Започвайки през 2026 г., AWS планира да внедри над 1 милион NVIDIA GPU, включително архитектури от следващо поколение Blackwell и Rubin, в своите глобални облачни региони. Това мащабно разширение затвърждава позицията на AWS като водещ доставчик на инстанции, базирани на NVIDIA GPU, предлагайки най-широката колекция за разнообразни AI/ML натоварвания. Този увеличен капацитет е от решаващо значение за подкрепа на нарастващото търсене на ИИ изчислителна мощност, особено за сложни агентни ИИ системи, които изискват обширна изчислителна мощност."
  • question: "Как новите инстанции на Amazon EC2 с NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs ще са от полза за потребителите?" answer: "AWS е първият голям доставчик на облачни услуги, който поддържа NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs на инстанциите на Amazon EC2. Тези инстанции са изключително гъвкави, подходящи за широк спектър от натоварвания като анализ на данни, разговорни ИИ, генериране на съдържание, системи за препоръки, видео стрийминг и усъвършенствано графично изобразяване. Изградени на базата на AWS Nitro System, те предлагат повишена ефективност на ресурсите, стабилна сигурност и стабилност, осигурявайки превъзходна производителност за взискателни ИИ и графични приложения."
  • question: "Как интеграцията на NVIDIA NIXL с AWS EFA подобрява извода на големи езикови модели (LLM)?" answer: "Интеграцията на NVIDIA Inference Xfer Library (NIXL) с AWS Elastic Fabric Adapter (EFA) е проектирана да ускори дезагрегирания извод на LLM на Amazon EC2 както за NVIDIA GPU, така и за AWS Trainium инстанции. Това е от решаващо значение за управление на комуникационните разходи при големи модели, което позволява ефективно припокриване на комуникацията и изчисленията, минимизиране на латентността и максимизиране на използването на GPU. Тя улеснява движението на KV-кеш данни с висока пропускателна способност и ниска латентност и се интегрира нативно с популярни отворени изходни рамки като NVIDIA Dynamo, vLLM и SGLang."
  • question: "Какви подобрения се правят в производителността на Apache Spark за анализ на данни?" answer: "Съвместните инженерни усилия на AWS и NVIDIA са довели до 3 пъти по-бърза производителност за работни натоварвания на Apache Spark. Това се постига чрез комбиниране на Amazon EMR на Amazon EKS с G7e инстанции, задвижвани от NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. Това значително ускоряване позволява на инженерите и учените по данни да ускорят времето за извличане на прозрения за критични задачи като проектиране на функции за AI/ML, сложни ETL трансформации и анализ в реално време, поддържайки пълна съвместимост със съществуващи Spark приложения."
  • question: "Каква разширена поддръжка на модела NVIDIA Nemotron предстои за Amazon Bedrock?" answer: "Amazon Bedrock скоро ще поддържа фина настройка на моделите NVIDIA Nemotron директно чрез Reinforcement Fine-Tuning (RFT). Тази възможност позволява на разработчиците прецизно да адаптират поведението на модела към специфични домейни като право, здравеопазване или финанси без разходи за инфраструктура. В допълнение, NVIDIA Nemotron 3 Super, хибриден модел Mixture-of-Experts (MoE), оптимизиран за многоагентни натоварвания и разширено разсъждение, също ще бъде наличен на Amazon Bedrock, осигурявайки бърз и рентабилен извод чрез напълно управляван API за сложни, многоетапни ИИ задачи."
  • question: "Как това сътрудничество се отнася към енергийната ефективност и устойчивостта в ИИ?" answer: "Сътрудничеството признава нарастващото значение на енергийната ефективност при мащабиране на работните натоварвания на ИИ. Производителността на ват е подчертана не само като показател за устойчивост, но и като конкурентно предимство. Статията посочва сесия на NVIDIA GTC, където лидери в областта на устойчивостта, включително директорът по устойчивост на Amazon Кара Хърст, обсъждат как ИИ трансформира корпоративната енергия и инфраструктура, подчертавайки усилията за по-устойчиви ИИ практики от центровете за данни до по-широките корпоративни ИИ приложения."

# AWS, NVIDIA задълбочават сътрудничеството си в областта на ИИ за ускоряване на прехода от пилотни проекти към производство

Изкуственият интелект трансформира индустриите с безпрецедентна скорост, но истинската стойност се крие не само в експериментирането, а в успешното внедряване и експлоатация на ИИ решения в производствени среди. Това изисква стабилни, мащабируеми, сигурни и съвместими системи, които постигат осезаеми бизнес резултати. Адресирайки тази критична нужда, AWS и NVIDIA обявиха значително разширяване на стратегическото си сътрудничество на NVIDIA GTC 2026, представяйки нови технологични интеграции, предназначени да посрещнат нарастващото търсене на изчислителна мощност за ИИ и да тласнат ИИ решенията към реално производство.

Задълбоченото партньорство се фокусира върху ускоряването на всеки аспект от жизнения цикъл на ИИ, от инфраструктурата до внедряването на модели. Тези интеграции обхващат ключови области, включително ускорени изчисления, усъвършенствани технологии за свързване и оптимизирана фина настройка на модели и извод. Основните съобщения включват:

*   Разполагането на повече от 1 милион NVIDIA GPU в AWS регионите, започващо през 2026 г.
*   Поддръжка на Amazon EC2 за NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs, което прави AWS първия голям доставчик на облачни услуги, който предлага това.
*   Ускорение на междусистемната свързаност за дезагрегиран извод на големи езикови модели (LLM), използващо NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
*   Драматично 3 пъти по-бърза производителност за работни натоварвания на Apache Spark, използващо Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) с инстанции Amazon EC2 G7e, задвижвани от NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.
*   Разширена поддръжка на модела NVIDIA Nemotron на Amazon Bedrock, включително Reinforcement Fine-Tuning и модела Nemotron 3 Super.

## Мащабиране на ИИ инфраструктурата с подобрена мощност на NVIDIA GPU

Основата на съвременния ИИ се крие в мощната изчислителна инфраструктура. Започвайки през 2026 г., AWS поема монументален ангажимент за напредъка на ИИ, като добавя над 1 милион NVIDIA GPU към своите глобални облачни региони. Това включва архитектури от следващо поколение Blackwell и Rubin GPU, гарантирайки, че клиентите имат достъп до най-модерния наличен хардуер. AWS вече разполага с най-широката колекция от инстанции, базирани на NVIDIA GPU, обслужващи разнообразен набор от AI/ML работни натоварвания, и това разширение допълнително затвърждава лидерската ѝ позиция.

Това дългогодишно партньорство, обхващащо над 15 години, също се разширява до ключови инфраструктурни области като Spectrum networking. Целта е да се осигури на предприятията, стартъпите и изследователите стабилна инфраструктура, необходима за изграждане и мащабиране на усъвършенствани [агентни ИИ системи](/bg/operationalizing-agentic-ai-part-1-a-stakeholders-guide) — ИИ, способни на автономно разсъждение, планиране и действие в сложни работни потоци.

## Представяне на нови Amazon EC2 инстанции и иновации в междусистемната свързаност

Акцент в сътрудничеството са предстоящите инстанции на Amazon EC2, ускорени от NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs. AWS се гордее, че е първият голям доставчик на облачни услуги, който обявява поддръжка за тези мощни GPU, като ги прави достъпни за широк кръг взискателни задачи. Тези инстанции са идеално подходящи за анализ на данни, сложни разговорни ИИ, динамично генериране на съдържание, усъвършенствани системи за препоръки, висококачествен видео стрийминг и сложни графични работни натоварвания.

Тези нови EC2 инстанции ще бъдат изградени на стабилната [AWS Nitro System](https://aws.amazon.com/ec2/nitro/). Системата Nitro, със своята уникална комбинация от специализиран хардуер и олекотен хипервайзор, доставя почти всички изчислителни и паметови ресурси на хост хардуера директно до инстанциите. Този дизайн осигурява превъзходно използване на ресурсите и производителност. От решаващо значение е, че специализираният хардуер, софтуер и фърмуер на системата Nitro са проектирани да прилагат строги ограничения, защитавайки чувствителни ИИ работни натоварвания и данни от неоторизиран достъп, дори отвътре на AWS. Нейната способност да извършва актуализации на фърмуера и оптимизации, докато е в експлоатация, допълнително подобрява сигурността и стабилността, които са от съществено значение за производствени ИИ, аналитични и графични работни натоварвания.

Допълнително подобряване на производителността, особено за масивни ИИ модели, е ускоряването на междусистемната свързаност за дезагрегиран извод на LLM. Тъй като размерите на моделите продължават да нарастват, комуникационните разходи между GPU или AWS Trainium инстанции могат да станат значително тясно място. AWS обяви поддръжка за NVIDIA Inference Xfer Library (NIXL) с AWS Elastic Fabric Adapter (EFA), предназначена да ускори дезагрегирания извод на LLM на Amazon EC2, обхващайки както NVIDIA GPU, така и AWS Trainium. Тази интеграция е жизненоважна за мащабиране на съвременни ИИ работни натоварвания, позволявайки ефективно припокриване на комуникацията и изчисленията, минимизиране на латентността и максимизиране на [използването на GPU](/bg/gpus). Тя улеснява движението на KV-кеш данни с висока пропускателна способност и ниска латентност между изчислителни възли и разпределени паметови ресурси. NIXL с EFA се интегрира нативно с популярни отворени изходни рамки като NVIDIA Dynamo, vLLM и SGLang, осигурявайки подобрена латентност между токените и по-ефективно използване на KV-кеш паметта.

## Ускоряване на анализа на данни с Amazon EMR и GPUs

Инженерите и учените по данни често се сблъскват с продължителни тръбопроводи за обработка на данни, които могат значително да възпрепятстват итерацията на AI/ML модели и генерирането на бизнес разузнаване. Сътрудничеството между AWS и NVIDIA осигурява новаторско подобрение: 3 пъти по-бърза производителност за работни натоварвания на Apache Spark. Това ускоряване се постига чрез използване на Amazon EMR на Amazon EKS с инстанции G7e, задвижвани от NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs.

Тази съществена печалба в производителността е пряк резултат от съвместни инженерни усилия, фокусирани върху оптимизирането на GPU-ускорени анализи. С инстанциите Amazon EMR и G7e организациите могат драстично да намалят времето, необходимо за проектиране на функции за AI/ML, сложни ETL трансформации и анализ в реално време в мащаб. Клиентите, работещи с мащабни тръбопроводи за обработка на данни, могат да постигнат по-бързо време за извличане на прозрения, като същевременно поддържат пълна съвместимост със съществуващите си Spark приложения.

## Разширяване на поддръжката на модела NVIDIA Nemotron на Amazon Bedrock

AWS и NVIDIA също така разширяват сътрудничеството си по отношение на основните модели, като предоставят усъвършенствани модели NVIDIA Nemotron на Amazon Bedrock.

Разработчиците скоро ще имат възможността да настройват фино моделите NVIDIA Nemotron директно на Amazon Bedrock, използвайки Reinforcement Fine-Tuning (RFT). Това променя играта за екипи, които трябва да адаптират поведението на модела към специфични домейни, било то в областта на правото, здравеопазването, финансите или други специализирани области. RFT дава възможност на потребителите да оформят начина, по който моделът разсъждава и отговаря, надхвърляйки обикновеното придобиване на знания към нюансирано поведенческо съответствие. От решаващо значение е, че това работи нативно на Amazon Bedrock, елиминирайки разходите за инфраструктура – потребителите дефинират задачата, предоставят обратна връзка, а Bedrock управлява останалото.

Освен това, NVIDIA Nemotron 3 Super, хибриден модел Mixture-of-Experts (MoE), създаден за многоагентни работни натоварвания и разширено разсъждение, също скоро ще бъде наличен на Amazon Bedrock. Проектиран да помага на ИИ агентите да поддържат точност в сложни, многоетапни работни потоци, Nemotron 3 Super ще захранва разнообразни случаи на употреба, обхващащи финанси, киберсигурност, търговия на дребно и разработка на софтуер. Той обещава бърз и рентабилен извод чрез напълно управляван API, опростявайки разгръщането на сложни ИИ агенти.

Ето обобщение на ключовите съобщения:

| Функция/Интеграция | Описание | Основна полза | Наличност |
| :---------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------------------- | :---------------------------------------------------------------------------------- | :-------------------- |
| **Внедряване на GPU** | Над 1 милион NVIDIA GPU (архитектури Blackwell, Rubin) в регионите на AWS. | Мащабен изчислителен капацитет за всички AI/ML работни натоварвания, агентен ИИ. | От 2026 г. |
| **Инстанции на Amazon EC2** | Поддръжка за NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs на EC2. | Първа поддръжка от голям доставчик на облачни услуги за гъвкави ИИ, графични, аналитични приложения. | Очаквайте скоро |
| **Извод на LLM** | NVIDIA NIXL на AWS EFA за ускорен дезагрегиран извод на LLM през GPU и Trainiums. | Минимизирана латентност на комуникацията, максимизирано използване на GPU за LLM. | Обявено |
| **Производителност на Apache Spark** | 3 пъти по-бързи работни натоварвания на Spark на Amazon EMR на EKS с G7e инстанции (RTX PRO 6000). | Ускорено време за извличане на прозрения за анализ на данни, проектиране на функции. | Обявено |
| **Фина настройка на Nemotron** | Reinforcement Fine-Tuning (RFT) за модели Nemotron директно на Amazon Bedrock. | Адаптиране на поведението на модела към конкретен домейн без разходи за инфраструктура. | Очаквайте скоро |
| **Nemotron 3 Super** | Хибриден MoE модел за многоагентни работни натоварвания и разширено разсъждение на Amazon Bedrock. | Бърз, рентабилен извод за сложни, многоетапни ИИ задачи. | Очаквайте скоро |

## Ангажимент за енергийна ефективност и устойчив ИИ

Тъй като работните натоварвания на ИИ продължават да нарастват експоненциално, ефективността и устойчивостта на базовата инфраструктура стават от първостепенно значение. Сътрудничеството също така подчертава споделения ангажимент за подобряване на енергийната ефективност. Производителността на ват вече не е просто показател за устойчивост, а значително конкурентно предимство в пейзажа на ИИ.

На NVIDIA GTC 2026, директорът по устойчивост на Amazon Кара Хърст се присъедини към други лидери в областта на устойчивостта, за да обсъдят как ИИ фундаментално трансформира корпоративната енергия и инфраструктура в мащаб. Тази дискусия подчертава фокуса върху разработването и внедряването на ИИ решения, които са не само мощни, но и екологично отговорни, от центрове за данни, оптимизирани като активни участници в мрежата, до по-широки корпоративни ИИ приложения. Този далновиден подход гарантира, че напредъкът в изчислителната мощност на ИИ е в съответствие с глобалните цели за устойчивост.

Често задавани въпроси

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели