Code Velocity
هوش مصنوعی سازمانی

همکاری AWS و NVIDIA در زمینه هوش مصنوعی برای تسریع تولید تعمیق می‌بخشند

·5 دقیقه مطالعه·AWS, NVIDIA·منبع اصلی
اشتراک‌گذاری
لوگوهای AWS و NVIDIA به وضوح نمایش داده شده‌اند که نماد همکاری استراتژیک گسترده آن‌ها برای تسریع و نوآوری هوش مصنوعی است.

همکاری AWS و NVIDIA در زمینه هوش مصنوعی برای تسریع فرآیند از فاز آزمایشی تا تولید عمیق‌تر می‌شود

هوش مصنوعی با سرعتی بی‌سابقه در حال تغییر صنایع است، اما ارزش واقعی آن نه تنها در آزمایش، بلکه در استقرار و عملیاتی‌سازی موفقیت‌آمیز راه‌حل‌های هوش مصنوعی در محیط‌های تولیدی نهفته است. این امر نیازمند سیستم‌های قوی، مقیاس‌پذیر، امن و سازگار است که نتایج تجاری ملموسی را به ارمغان آورند. در پاسخ به این نیاز حیاتی، AWS و NVIDIA در کنفرانس NVIDIA GTC 2026 از گسترش چشمگیر همکاری استراتژیک خود پرده برداشتند و از ادغام‌های فناوری جدیدی رونمایی کردند که برای پاسخگویی به تقاضای فزاینده برای محاسبات هوش مصنوعی و پیشبرد راه‌حل‌های هوش مصنوعی به سمت تولید در دنیای واقعی طراحی شده‌اند.

این همکاری عمیق‌تر بر تسریع هر جنبه از چرخه عمر هوش مصنوعی، از زیرساخت تا استقرار مدل، تمرکز دارد. این ادغام‌ها شامل حوزه‌های حیاتی مانند محاسبات شتاب‌یافته، فناوری‌های اتصال داخلی پیشرفته و تنظیم دقیق و استنتاج مدل بهینه می‌شود. اطلاعیه‌های کلیدی شامل موارد زیر است:

  • استقرار بیش از 1 میلیون NVIDIA GPU در مناطق AWS، از سال 2026 آغاز می‌شود.
  • پشتیبانی Amazon EC2 از GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition، که AWS را به اولین ارائه‌دهنده بزرگ ابری تبدیل می‌کند که این خدمات را ارائه می‌دهد.
  • تسریع اتصال داخلی برای استنتاج مدل‌های زبان بزرگ (LLM) غیرمتمرکز با استفاده از NVIDIA NIXL بر روی AWS Elastic Fabric Adapter (EFA).
  • عملکرد 3 برابر سریع‌تر و چشمگیر برای بارهای کاری Apache Spark با استفاده از Amazon EMR بر روی Amazon Elastic Kubernetes Service (Amazon EKS) با نمونه‌های Amazon EC2 G7e، که توسط GPUهای NVIDIA RTX PRO 6000 Blackwell Server Edition قدرت می‌یابند.
  • پشتیبانی گسترده از مدل Nemotron NVIDIA در Amazon Bedrock، شامل Reinforcement Fine-Tuning و مدل Nemotron 3 Super.

مقیاس‌گذاری زیرساخت هوش مصنوعی با توان GPUهای تقویت‌شده NVIDIA

پایه و اساس هوش مصنوعی مدرن در زیرساخت محاسباتی قدرتمند نهفته است. از سال 2026، AWS با افزودن بیش از 1 میلیون NVIDIA GPU به مناطق ابری جهانی خود، تعهدی عظیم به پیشرفت هوش مصنوعی نشان می‌دهد. این شامل معماری‌های GPU نسل بعدی Blackwell و Rubin است که اطمینان می‌دهد مشتریان به پیشرفته‌ترین سخت‌افزارهای موجود دسترسی دارند. AWS در حال حاضر گسترده‌ترین مجموعه نمونه‌های مبتنی بر NVIDIA GPU را در صنعت ارائه می‌دهد که پاسخگوی طیف متنوعی از بارهای کاری هوش مصنوعی/یادگیری ماشین است، و این گسترش رهبری آن را بیشتر تثبیت می‌کند.

این همکاری دیرینه، که بیش از 15 سال به طول انجامیده است، به حوزه‌های زیرساختی حیاتی مانند شبکه Spectrum نیز گسترش می‌یابد. هدف این است که زیرساخت قوی مورد نیاز برای ساخت و مقیاس‌گذاری سیستم‌های هوش مصنوعی عاملی — هوش مصنوعی قادر به استدلال، برنامه‌ریزی و اقدام مستقل در سراسر گردش کار پیچیده — را برای شرکت‌ها، استارت‌آپ‌ها و محققان فراهم کند.

معرفی نمونه‌های جدید Amazon EC2 و نوآوری‌های اتصال داخلی

یکی از نکات برجسته این همکاری، نمونه‌های آینده Amazon EC2 است که توسط GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition شتاب داده می‌شوند. AWS افتخار می‌کند که اولین ارائه‌دهنده بزرگ ابری است که پشتیبانی از این GPUهای قدرتمند را اعلام کرده و آن‌ها را برای طیف وسیعی از وظایف پرتقاضا قابل دسترسی می‌سازد. این نمونه‌ها به طور ایده‌آل برای تحلیل داده‌ها، هوش مصنوعی مکالمه‌ای پیشرفته، تولید محتوای پویا، سیستم‌های توصیه‌گر پیشرفته، پخش ویدیوی با کیفیت بالا و بارهای کاری گرافیکی پیچیده مناسب هستند.

این نمونه‌های جدید EC2 بر اساس AWS Nitro System قوی ساخته خواهند شد. سیستم Nitro، با ترکیب منحصربه‌فرد سخت‌افزار اختصاصی و یک هایپروایزر سبک، تقریباً تمام منابع محاسباتی و حافظه سخت‌افزار میزبان را مستقیماً به نمونه‌ها ارائه می‌دهد. این طراحی استفاده بهینه از منابع و عملکرد برتر را تضمین می‌کند. مهم‌تر از همه، سخت‌افزار، نرم‌افزار و فریم‌ورک تخصصی Nitro System برای اعمال محدودیت‌های سخت‌گیرانه مهندسی شده‌اند تا بارهای کاری و داده‌های حساس هوش مصنوعی را از دسترسی غیرمجاز، حتی از داخل AWS، محافظت کنند. قابلیت آن برای انجام به‌روزرسانی‌ها و بهینه‌سازی‌های فریم‌ورک در حین عملیات، امنیت و پایداری ضروری برای بارهای کاری هوش مصنوعی، تحلیلی و گرافیکی در سطح تولید را بیشتر می‌کند.

افزایش عملکرد، به ویژه برای مدل‌های عظیم هوش مصنوعی، با تسریع اتصالات داخلی برای استنتاج LLM غیرمتمرکز، بیشتر می‌شود. با ادامه رشد اندازه مدل‌ها، سربار ارتباطی بین GPUها یا AWS Trainium instances می‌تواند به یک گلوگاه مهم تبدیل شود. AWS پشتیبانی از NVIDIA Inference Xfer Library (NIXL) با AWS Elastic Fabric Adapter (EFA) را اعلام کرد که برای تسریع استنتاج LLM غیرمتمرکز بر روی Amazon EC2، هم در GPUهای NVIDIA و هم در AWS Trainium طراحی شده است. این یکپارچه‌سازی برای مقیاس‌گذاری بارهای کاری مدرن هوش مصنوعی، امکان همپوشانی کارآمد ارتباط و محاسبات، به حداقل رساندن تأخیر و به حداکثر رساندن بهره‌برداری از GPU حیاتی است. این امر جابجایی داده‌های KV-cache با توان عملیاتی بالا و تأخیر کم را بین گره‌های محاسباتی و منابع حافظه توزیع‌شده تسهیل می‌کند. NIXL با EFA به طور بومی با فریم‌ورک‌های متن‌باز محبوب مانند NVIDIA Dynamo، vLLM و SGLang یکپارچه می‌شود و تأخیر بین توکن‌ها را بهبود می‌بخشد و استفاده از حافظه KV-cache را کارآمدتر می‌کند.

تسریع تحلیل داده‌ها با Amazon EMR و GPUها

مهندسان و دانشمندان داده اغلب با خطوط لوله پردازش داده طولانی دست و پنجه نرم می‌کنند که می‌تواند تکرار مدل هوش مصنوعی/یادگیری ماشین و تولید هوش تجاری را به طور قابل توجهی مختل کند. همکاری AWS و NVIDIA یک بهبود پیشگامانه را ارائه می‌دهد: 3 برابر عملکرد سریع‌تر برای بارهای کاری Apache Spark. این تسریع با استفاده از Amazon EMR بر روی Amazon EKS با نمونه‌های G7e، که توسط GPUهای NVIDIA RTX PRO 6000 Blackwell Server Edition قدرت می‌یابند، حاصل می‌شود.

این افزایش عملکرد قابل توجه نتیجه مستقیم تلاش‌های مهندسی مشترک است که بر بهینه‌سازی تحلیل‌های شتاب‌یافته با GPU تمرکز دارد. با Amazon EMR و نمونه‌های G7e، سازمان‌ها می‌توانند زمان مورد نیاز برای مهندسی ویژگی هوش مصنوعی/یادگیری ماشین، تبدیل‌های پیچیده ETL و تحلیل‌های بلادرنگ در مقیاس بزرگ را به طور چشمگیری کاهش دهند. مشتریانی که خطوط لوله پردازش داده در مقیاس بزرگ را اجرا می‌کنند، می‌توانند زمان رسیدن به بینش (time-to-insight) را تسریع بخشند، در حالی که سازگاری کامل با برنامه‌های Spark موجود خود را حفظ می‌کنند.

گسترش پشتیبانی از مدل Nemotron NVIDIA در Amazon Bedrock

AWS و NVIDIA همچنین در حال گسترش همکاری خود در زمینه مدل‌های بنیادی هستند و مدل‌های پیشرفته Nemotron NVIDIA را به Amazon Bedrock می‌آورند.

توسعه‌دهندگان به زودی این قابلیت را خواهند داشت که مدل‌های NVIDIA Nemotron را مستقیماً بر روی Amazon Bedrock با استفاده از Reinforcement Fine-Tuning (RFT) تنظیم دقیق کنند. این یک تغییر دهنده بازی (game-changer) برای تیم‌هایی است که نیاز دارند رفتار مدل را با دامنه‌های خاصی، چه در زمینه حقوقی، مراقبت‌های بهداشتی، مالی یا سایر حوزه‌های تخصصی، تطبیق دهند. RFT به کاربران امکان می‌دهد تا نحوه استدلال و پاسخگویی یک مدل را شکل دهند و فراتر از صرفاً کسب دانش به سمت هماهنگی رفتاری دقیق حرکت کنند. مهم‌تر از همه، این قابلیت به طور بومی بر روی Amazon Bedrock اجرا می‌شود و سربار زیرساختی را از بین می‌برد – کاربران وظیفه را تعریف می‌کنند، بازخورد می‌دهند و Bedrock بقیه کارها را مدیریت می‌کند.

علاوه بر این، NVIDIA Nemotron 3 Super، یک مدل هیبریدی Mixture-of-Experts (MoE) که برای بارهای کاری چندعاملی و استدلال گسترده ساخته شده است، نیز به زودی در Amazon Bedrock در دسترس خواهد بود. Nemotron 3 Super که برای کمک به عوامل هوش مصنوعی (AI agents) در حفظ دقت در گردش کارهای پیچیده و چندمرحله‌ای مهندسی شده است، از موارد استفاده متنوعی در مالی، امنیت سایبری، خرده‌فروشی و توسعه نرم‌افزار پشتیبانی خواهد کرد. این مدل، استنتاج سریع و مقرون‌به‌صرفه را از طریق یک API کاملاً مدیریت‌شده نوید می‌دهد و استقرار عوامل هوش مصنوعی پیچیده را ساده می‌کند.

در اینجا خلاصه‌ای از اطلاعیه‌های کلیدی ارائه شده است:

ویژگی/ادغامتوضیحاتمزیت اصلیزمان دسترسی
استقرار GPUبیش از 1 میلیون GPU از NVIDIA (معماری‌های Blackwell, Rubin) در مناطق AWS.مقیاس محاسباتی عظیم برای تمامی بارهای کاری هوش مصنوعی/یادگیری ماشین، هوش مصنوعی عاملی.از سال 2026
نمونه‌های Amazon EC2پشتیبانی از GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition در EC2.اولین پشتیبانی ارائه‌دهنده بزرگ ابری برای هوش مصنوعی، گرافیک و تحلیل‌های چندمنظوره.به زودی
استنتاج LLMNVIDIA NIXL بر روی AWS EFA برای استنتاج شتاب‌یافته LLM غیرمتمرکز در سراسر GPUها و Trainiumها.کاهش حداقل تأخیر ارتباطی، حداکثرسازی بهره‌برداری از GPU برای LLMها.اعلام شد
عملکرد Apache Sparkبارهای کاری Spark 3 برابر سریع‌تر بر روی Amazon EMR در EKS با نمونه‌های G7e (RTX PRO 6000).تسریع زمان رسیدن به بینش (time-to-insight) برای تحلیل داده‌ها، مهندسی ویژگی.اعلام شد
تنظیم دقیق NemotronReinforcement Fine-Tuning (RFT) برای مدل‌های Nemotron مستقیماً بر روی Amazon Bedrock.هماهنگی رفتار مدل خاص دامنه بدون سربار زیرساختی.به زودی
Nemotron 3 Superمدل هیبریدی MoE برای بارهای کاری چندعاملی و استدلال گسترده بر روی Amazon Bedrock.استنتاج سریع و مقرون‌به‌صرفه برای وظایف هوش مصنوعی پیچیده و چندمرحله‌ای.به زودی

تعهد به بهره‌وری انرژی و هوش مصنوعی پایدار

با رشد تصاعدی بارهای کاری هوش مصنوعی، بهره‌وری و پایداری زیرساخت‌های مربوطه اهمیت ویژه‌ای پیدا می‌کند. این همکاری همچنین بر تعهد مشترک برای بهبود بهره‌وری انرژی تأکید دارد. عملکرد بر وات (Performance per watt) دیگر تنها یک معیار پایداری نیست، بلکه یک مزیت رقابتی قابل توجه در چشم‌انداز هوش مصنوعی محسوب می‌شود.

در NVIDIA GTC 2026، Kara Hurst، مدیر ارشد پایداری Amazon، به دیگر رهبران پایداری پیوست تا در مورد چگونگی تغییر اساسی انرژی و زیرساخت‌های سازمانی در مقیاس وسیع توسط هوش مصنوعی بحث کنند. این بحث بر تمرکز بر توسعه و استقرار راه‌حل‌های هوش مصنوعی تأکید می‌کند که نه تنها قدرتمند هستند، بلکه از نظر محیط زیستی نیز مسئولیت‌پذیرند، از مراکز داده بهینه‌شده به عنوان شرکت‌کنندگان فعال شبکه تا کاربردهای گسترده‌تر هوش مصنوعی سازمانی. این رویکرد آینده‌نگر تضمین می‌کند که پیشرفت‌ها در محاسبات هوش مصنوعی با اهداف پایداری جهانی همسو هستند.

سوالات متداول

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

به‌روز بمانید

آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.

اشتراک‌گذاری