Code Velocity
Корпоративна вештачка интелигенција

AWS, NVIDIA ја продлабочуваат соработката за вештачка интелигенција за забрзување на продукцијата

·5 мин читање·AWS, NVIDIA·Оригинален извор
Сподели
Логоата на AWS и NVIDIA истакнато прикажани, симболизирајќи ја нивната проширена стратешка соработка за забрзување и иновации во вештачката интелигенција.

title: "AWS, NVIDIA ја продлабочуваат соработката за вештачка интелигенција за забрзување на продукцијата" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "mk" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "Корпоративна вештачка интелигенција" keywords:

  • AWS
  • NVIDIA
  • забрзување на вештачка интелигенција
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • LLM заклучување
  • EFA
  • Apache Spark
  • Корпоративна вештачка интелигенција
  • Продукциска вештачка интелигенција
  • Машинско учење meta_description: "AWS и NVIDIA ја продлабочуваат својата стратешка соработка на GTC 2026, најавувајќи големи интеграции за забрзување на вештачката интелигенција од пилот до продукција, вклучувајќи проширени имплементации на GPU, нови EC2 инстанци и поддршка за Nemotron модели на Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Логоата на AWS и NVIDIA истакнато прикажани, симболизирајќи ја нивната проширена стратешка соработка за забрзување и иновации во вештачката интелигенција." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Која е примарната цел на проширената стратешка соработка помеѓу AWS и NVIDIA?" answer: "Соработката има за цел да ја забрза транзицијата на AI решенијата од експериментални фази до целосни продукциски средини. Ова вклучува интегрирање на нови технологии и проширување на постојните можности преку забрзано пресметување, интерконект технологии, фино подесување на модели и заклучување. Фокусот е на овозможување на клиентите да градат и да извршуваат AI решенија кои се сигурни, перформантни на скала и усогласени со безбедносните и регулаторните барања на претпријатијата, на крајот поттикнувајќи значајни деловни резултати преку AI системи подготвени за продукција."
  • question: "Какви значајни проширувања на GPU инфраструктурата планира AWS како дел од оваа соработка?" answer: "Почнувајќи од 2026 година, AWS планира да имплементира над 1 милион NVIDIA GPU, вклучувајќи ги архитектурите од следната генерација Blackwell и Rubin, низ своите глобални облак региони. Ова масивно проширување ја зацврстува позицијата на AWS како водечки провајдер на инстанци базирани на NVIDIA GPU, нудејќи ја најшироката колекција за разновидни AI/ML работни оптоварувања. Овој подобрен капацитет е клучен за поддршка на зголемената побарувачка за AI пресметување, особено за комплексни AI системи со агенти кои бараат обемна компјутерска моќ."
  • question: "Како новите Amazon EC2 инстанци со NVIDIA RTX PRO 4500 Blackwell Server Edition GPU ќе им користат на корисниците?" answer: "AWS е првиот голем облак провајдер кој ги поддржува NVIDIA RTX PRO 4500 Blackwell Server Edition GPU на Amazon EC2 инстанци. Овие инстанци се многу разновидни, погодни за широк спектар на работни оптоварувања како што се анализа на податоци, конверзациска вештачка интелигенција, генерирање содржина, системи за препораки, видео стриминг и напредно рендерирање на графика. Изградени на AWS Nitro System, тие нудат подобрена ефикасност на ресурсите, робусна безбедност и стабилност, испорачувајќи супериорни перформанси за барачки AI и графички апликации."
  • question: "Како интеграцијата на NVIDIA NIXL со AWS EFA го подобрува заклучувањето на големи јазични модели (LLM)?" answer: "Интеграцијата на NVIDIA Inference Xfer Library (NIXL) со AWS Elastic Fabric Adapter (EFA) е дизајнирана да го забрза дисагрегираното LLM заклучување на Amazon EC2 низ NVIDIA GPU и AWS Trainium инстанци. Ова е критично за управување со комуникациските трошоци во големи модели, овозможувајќи ефикасно преклопување на комуникацијата и пресметувањето, минимизирање на латенцијата и максимизирање на искористеноста на GPU. Овозможува брз проток, ниска латенција на движење на податоци од KV-кеш и се интегрира природно со популарни отворени рамки како NVIDIA Dynamo, vLLM и SGLang."
  • question: "Какви подобрувања се прават во перформансите на Apache Spark за анализа на податоци?" answer: "Заедничките инженерски напори на AWS и NVIDIA резултираа со 3x побрзи перформанси за работните оптоварувања на Apache Spark. Ова се постигнува со комбинирање на Amazon EMR на Amazon EKS со G7e инстанци, напојувани од NVIDIA RTX PRO 6000 Blackwell Server Edition GPU. Ова значително забрзување им овозможува на инженерите и научниците за податоци да го забрзаат времето до увид за критични задачи како што се AI/ML инженеринг на карактеристики, комплексни ETL трансформации и аналитика во реално време, одржувајќи целосна компатибилност со постоечките Spark апликации."
  • question: "Каква проширена поддршка за NVIDIA Nemotron модели доаѓа во Amazon Bedrock?" answer: "Amazon Bedrock наскоро ќе поддржува фино подесување на NVIDIA Nemotron модели директно користејќи Reinforcement Fine-Tuning (RFT). Оваа способност им овозможува на развивачите прецизно да го усогласат однесувањето на моделот со специфични домени како правото, здравството или финансиите без инфраструктурни трошоци. Дополнително, NVIDIA Nemotron 3 Super, хибриден Mixture-of-Experts (MoE) модел оптимизиран за работни оптоварувања со повеќе агенти и проширено расудување, исто така ќе биде достапен на Amazon Bedrock, обезбедувајќи брзо, економично заклучување преку целосно управуван API за комплексни, повеќестепени AI задачи."
  • question: "Како оваа соработка ја адресира енергетската ефикасност и одржливоста во вештачката интелигенција?" answer: "Соработката ја препознава растечката важност на енергетската ефикасност како што се зголемуваат AI работните оптоварувања. Перформансите по ват се истакнати не само како метрика за одржливост, туку и како конкурентна предност. Статијата укажува на сесија на NVIDIA GTC каде лидерите за одржливост, вклучувајќи ја CSO на Amazon, Кара Хрст, дискутираат како вештачката интелигенција ја трансформира енергијата и инфраструктурата на претпријатијата, нагласувајќи ги напорите кон поодржливи AI практики од центрите за податоци до пошироките апликации за вештачка интелигенција во претпријатијата."

AWS, NVIDIA ја продлабочуваат соработката за вештачка интелигенција за забрзување на продукцијата

Вештачката интелигенција ги трансформира индустриите со невидено темпо, но вистинската вредност лежи не само во експериментирањето, туку и во успешното распоредување и оперирање на AI решенија во продукциски средини. Ова бара робусни, скалабилни, безбедни и усогласени системи кои испорачуваат опипливи деловни резултати. Адресирајќи ја оваа критична потреба, AWS и NVIDIA најавија значајно проширување на нивната стратешка соработка на NVIDIA GTC 2026, претставувајќи нови технолошки интеграции дизајнирани да ја задоволат растечката побарувачка за AI пресметување и да ги поттикнат AI решенијата во реална продукција.

Продлабоченото партнерство се фокусира на забрзување на секој аспект од животниот циклус на вештачката интелигенција, од инфраструктура до имплементација на модели. Овие интеграции опфаќаат клучни области вклучувајќи забрзано пресметување, напредни интерконект технологии и поедноставено фино подесување и заклучување на модели. Клучните најави вклучуваат:

  • Имплементација на повеќе од 1 милион NVIDIA GPU низ AWS регионите почнувајќи од 2026 година.
  • Поддршка за Amazon EC2 за NVIDIA RTX PRO 4500 Blackwell Server Edition GPU, со што AWS станува првиот голем облак провајдер што го нуди ова.
  • Забрзување на интерконектот за дисагрегирано заклучување на големи јазични модели (LLM) со користење на NVIDIA NIXL на AWS Elastic Fabric Adapter (EFA).
  • Драматично 3x побрзи перформанси за Apache Spark работни оптоварувања со користење на Amazon EMR на Amazon Elastic Kubernetes Service (Amazon EKS) со Amazon EC2 G7e инстанци, напојувани од NVIDIA RTX PRO 6000 Blackwell Server Edition GPU.
  • Проширена поддршка за NVIDIA Nemotron модели на Amazon Bedrock, вклучувајќи Reinforcement Fine-Tuning и моделот Nemotron 3 Super.

Скалирање на AI инфраструктурата со подобрена NVIDIA GPU моќ

Основата на модерната вештачка интелигенција лежи во моќната компјутерска инфраструктура. Почнувајќи од 2026 година, AWS прави монументална посветеност на напредокот на вештачката интелигенција со додавање на над 1 милион NVIDIA GPU во своите глобални облак региони. Ова вклучува архитектури на GPU од следната генерација Blackwell и Rubin, со што се обезбедува клиентите да имаат пристап до најнапредниот достапен хардвер. AWS веќе се пофалува со најшироката колекција на инстанци базирани на NVIDIA GPU во индустријата, задоволувајќи низа различни AI/ML работни оптоварувања, а ова проширување дополнително го зацврстува нејзиното лидерство.

Ова долгогодишно партнерство, кое трае повеќе од 15 години, се проширува и на клучни инфраструктурни области како мрежата Spectrum. Целта е да им се обезбеди на претпријатијата, стартапите и истражувачите робусната инфраструктура потребна за градење и скалирање на напредни AI системи со агенти—AI способни за автономно расудување, планирање и дејствување низ комплексни работни текови.

Претставување на нови Amazon EC2 инстанци и иновации во интерконектот

Врв на соработката се претстојните Amazon EC2 инстанци забрзани со NVIDIA RTX PRO 4500 Blackwell Server Edition GPU. AWS е горд што е првиот голем облак провајдер што ја најавува поддршката за овие моќни GPU, правејќи ги достапни за широк опсег на барачки задачи. Овие инстанци се идеално погодни за анализа на податоци, софистицирана конверзациска вештачка интелигенција, динамично генерирање содржина, напредни системи за препораки, висококвалитетен видео стриминг и сложени графички работни оптоварувања.

Овие нови EC2 инстанци ќе бидат изградени на робусниот AWS Nitro System. Nitro System, со својата уникатна комбинација на наменски хардвер и лесен хипервизор, испорачува речиси сите компјутерски и мемориски ресурси на хост хардверот директно до инстанците. Овој дизајн обезбедува супериорна искористеност на ресурсите и перформанси. Што е најважно, специјализираниот хардвер, софтвер и фирмвер на Nitro System се дизајнирани да спроведуваат строги ограничувања, заштитувајќи ги чувствителните AI работни оптоварувања и податоци од неовластен пристап, дури и од AWS. Неговата способност да врши ажурирања на фирмверот и оптимизации додека работи дополнително ја подобрува безбедноста и стабилноста суштински за AI, аналитика и графички работни оптоварувања од продукциско ниво.

Дополнително подобрување на перформансите, особено за масивни AI модели, е забрзувањето на интерконектите за дисагрегирано LLM заклучување. Како што големината на моделите продолжува да расте, комуникациските трошоци помеѓу GPU или AWS Trainium инстанците можат да станат значајно тесно грло. AWS најави поддршка за NVIDIA Inference Xfer Library (NIXL) со AWS Elastic Fabric Adapter (EFA), дизајнирана да го забрза дисагрегираното LLM заклучување на Amazon EC2, опфаќајќи ги NVIDIA GPU и AWS Trainium. Оваа интеграција е витална за скалирање на модерни AI работни оптоварувања, овозможувајќи ефикасно преклопување на комуникацијата и пресметувањето, минимизирање на латенцијата и максимизирање на искористеноста на GPU. Овозможува брз проток, ниска латенција на движење на податоци од KV-кеш помеѓу компјутерските јазли и дистрибуираните мемориски ресурси. NIXL со EFA се интегрира природно со популарни отворени рамки како NVIDIA Dynamo, vLLM и SGLang, испорачувајќи подобрена меѓу-токен латенција и поефикасно искористување на KV-кеш меморијата.

Забрзување на анализата на податоци со Amazon EMR и GPU

Инженерите и научниците за податоци често се борат со долги цевководи за обработка на податоци кои можат значително да ја попречат итерацијата на AI/ML моделите и генерирањето деловна интелигенција. Соработката помеѓу AWS и NVIDIA носи револуционерно подобрување: 3x побрзи перформанси за Apache Spark работни оптоварувања. Ова забрзување се постигнува со користење на Amazon EMR на Amazon EKS со G7e инстанци, напојувани од NVIDIA's RTX PRO 6000 Blackwell Server Edition GPU.

Ова значително зголемување на перформансите е директен резултат на заедничките инженерски напори насочени кон оптимизирање на аналитиката забрзана со GPU. Со Amazon EMR и G7e инстанци, организациите можат драматично да го намалат времето потребно за AI/ML инженеринг на карактеристики, комплексни ETL трансформации и аналитика во реално време на скала. Клиентите кои извршуваат големи цевководи за обработка на податоци можат да постигнат побрзо време до увид, истовремено одржувајќи целосна компатибилност со нивните постоечки Spark апликации.

Проширување на поддршката за NVIDIA Nemotron модели на Amazon Bedrock

AWS и NVIDIA исто така ја прошируваат својата соработка на основните модели, носејќи напредни NVIDIA Nemotron модели на Amazon Bedrock.

Развивачите наскоро ќе имаат можност директно да ги фино подесуваат NVIDIA Nemotron моделите на Amazon Bedrock користејќи Reinforcement Fine-Tuning (RFT). Ова е клучна промена за тимовите кои треба да го прилагодат однесувањето на моделот на специфични домени, без разлика дали се во право, здравство, финансии или други специјализирани области. RFT им овозможува на корисниците да обликуваат како моделот размислува и одговара, надминувајќи го само стекнувањето знаење до нијансирано усогласување на однесувањето. Што е најважно, ова работи природно на Amazon Bedrock, елиминирајќи ги инфраструктурните трошоци – корисниците ја дефинираат задачата, обезбедуваат повратни информации, а Bedrock го управува остатокот.

Понатаму, NVIDIA Nemotron 3 Super, хибриден Mixture-of-Experts (MoE) модел изграден за работни оптоварувања со повеќе агенти и проширено расудување, исто така наскоро ќе биде достапен на Amazon Bedrock. Дизајниран да им помогне на AI агентите да ја одржуваат точноста низ комплексни, повеќестепени работни текови, Nemotron 3 Super ќе напојува разновидни случаи на употреба кои опфаќаат финансии, сајбер безбедност, малопродажба и развој на софтвер. Ветува брзо, економично заклучување преку целосно управуван API, поедноставувајќи го распоредувањето на софистицирани AI агенти.

Еве резиме на клучните најави:

Карактеристика/ИнтеграцијаОписПримарна придобивкаДостапност
Имплементација на GPUНад 1 милион NVIDIA GPU (Blackwell, Rubin архитектури) низ AWS регионите.Масовно пресметување за сите AI/ML работни оптоварувања, AI со агенти.Почнувајќи од 2026
Amazon EC2 ИнстанциПоддршка за NVIDIA RTX PRO 4500 Blackwell Server Edition GPU на EC2.Прва голема поддршка од облак провајдер за разновидни AI, графика, аналитика.Наскоро
LLM ЗаклучувањеNVIDIA NIXL на AWS EFA за забрзано дисагрегирано LLM заклучување низ GPU и Trainium.Минимизирана латенција на комуникација, максимизирана искористеност на GPU за LLM.Најавено
Apache Spark Перформанси3x побрзи Spark работни оптоварувања на Amazon EMR на EKS со G7e инстанци (RTX PRO 6000).Забрзано време до увид за анализа на податоци, инженеринг на карактеристики.Најавено
Nemotron Фино ПодесувањеReinforcement Fine-Tuning (RFT) за Nemotron модели директно на Amazon Bedrock.Усогласување на однесувањето на моделот специфично за домен без инфраструктурни трошоци.Наскоро
Nemotron 3 SuperХибриден MoE модел за работни оптоварувања со повеќе агенти и проширено расудување на Amazon Bedrock.Брзо, економично заклучување за комплексни, повеќестепени AI задачи.Наскоро

Посветеност на енергетската ефикасност и одржлива вештачка интелигенција

Како што AI работните оптоварувања продолжуваат експоненцијално да растат, ефикасноста и одржливоста на основната инфраструктура стануваат од најголема важност. Соработката исто така ја нагласува заедничката посветеност за подобрување на енергетската ефикасност. Перформансите по ват повеќе не се само метрика за одржливост, туку значајна конкурентна предност во AI пејзажот.

На NVIDIA GTC 2026, CSO на Amazon, Кара Хрст, им се придружи на други лидери за одржливост за да разговараат како вештачката интелигенција фундаментално ја трансформира енергијата и инфраструктурата на претпријатијата на скала. Оваа дискусија го нагласува фокусот на развој и имплементација на AI решенија кои не се само моќни, туку и еколошки одговорни, од центри за податоци оптимизирани како активни учесници во мрежата до пошироки апликации за вештачка интелигенција во претпријатијата. Овој напреден пристап обезбедува дека напредокот во AI пресметувањето е усогласен со глобалните цели за одржливост.

Често поставувани прашања

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели