همکاری AWS و NVIDIA در زمینه هوش مصنوعی برای تسریع فرآیند از فاز آزمایشی تا تولید عمیقتر میشود
هوش مصنوعی با سرعتی بیسابقه در حال تغییر صنایع است، اما ارزش واقعی آن نه تنها در آزمایش، بلکه در استقرار و عملیاتیسازی موفقیتآمیز راهحلهای هوش مصنوعی در محیطهای تولیدی نهفته است. این امر نیازمند سیستمهای قوی، مقیاسپذیر، امن و سازگار است که نتایج تجاری ملموسی را به ارمغان آورند. در پاسخ به این نیاز حیاتی، AWS و NVIDIA در کنفرانس NVIDIA GTC 2026 از گسترش چشمگیر همکاری استراتژیک خود پرده برداشتند و از ادغامهای فناوری جدیدی رونمایی کردند که برای پاسخگویی به تقاضای فزاینده برای محاسبات هوش مصنوعی و پیشبرد راهحلهای هوش مصنوعی به سمت تولید در دنیای واقعی طراحی شدهاند.
این همکاری عمیقتر بر تسریع هر جنبه از چرخه عمر هوش مصنوعی، از زیرساخت تا استقرار مدل، تمرکز دارد. این ادغامها شامل حوزههای حیاتی مانند محاسبات شتابیافته، فناوریهای اتصال داخلی پیشرفته و تنظیم دقیق و استنتاج مدل بهینه میشود. اطلاعیههای کلیدی شامل موارد زیر است:
- استقرار بیش از 1 میلیون NVIDIA GPU در مناطق AWS، از سال 2026 آغاز میشود.
- پشتیبانی Amazon EC2 از GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition، که AWS را به اولین ارائهدهنده بزرگ ابری تبدیل میکند که این خدمات را ارائه میدهد.
- تسریع اتصال داخلی برای استنتاج مدلهای زبان بزرگ (LLM) غیرمتمرکز با استفاده از NVIDIA NIXL بر روی AWS Elastic Fabric Adapter (EFA).
- عملکرد 3 برابر سریعتر و چشمگیر برای بارهای کاری Apache Spark با استفاده از Amazon EMR بر روی Amazon Elastic Kubernetes Service (Amazon EKS) با نمونههای Amazon EC2 G7e، که توسط GPUهای NVIDIA RTX PRO 6000 Blackwell Server Edition قدرت مییابند.
- پشتیبانی گسترده از مدل Nemotron NVIDIA در Amazon Bedrock، شامل Reinforcement Fine-Tuning و مدل Nemotron 3 Super.
مقیاسگذاری زیرساخت هوش مصنوعی با توان GPUهای تقویتشده NVIDIA
پایه و اساس هوش مصنوعی مدرن در زیرساخت محاسباتی قدرتمند نهفته است. از سال 2026، AWS با افزودن بیش از 1 میلیون NVIDIA GPU به مناطق ابری جهانی خود، تعهدی عظیم به پیشرفت هوش مصنوعی نشان میدهد. این شامل معماریهای GPU نسل بعدی Blackwell و Rubin است که اطمینان میدهد مشتریان به پیشرفتهترین سختافزارهای موجود دسترسی دارند. AWS در حال حاضر گستردهترین مجموعه نمونههای مبتنی بر NVIDIA GPU را در صنعت ارائه میدهد که پاسخگوی طیف متنوعی از بارهای کاری هوش مصنوعی/یادگیری ماشین است، و این گسترش رهبری آن را بیشتر تثبیت میکند.
این همکاری دیرینه، که بیش از 15 سال به طول انجامیده است، به حوزههای زیرساختی حیاتی مانند شبکه Spectrum نیز گسترش مییابد. هدف این است که زیرساخت قوی مورد نیاز برای ساخت و مقیاسگذاری سیستمهای هوش مصنوعی عاملی — هوش مصنوعی قادر به استدلال، برنامهریزی و اقدام مستقل در سراسر گردش کار پیچیده — را برای شرکتها، استارتآپها و محققان فراهم کند.
معرفی نمونههای جدید Amazon EC2 و نوآوریهای اتصال داخلی
یکی از نکات برجسته این همکاری، نمونههای آینده Amazon EC2 است که توسط GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition شتاب داده میشوند. AWS افتخار میکند که اولین ارائهدهنده بزرگ ابری است که پشتیبانی از این GPUهای قدرتمند را اعلام کرده و آنها را برای طیف وسیعی از وظایف پرتقاضا قابل دسترسی میسازد. این نمونهها به طور ایدهآل برای تحلیل دادهها، هوش مصنوعی مکالمهای پیشرفته، تولید محتوای پویا، سیستمهای توصیهگر پیشرفته، پخش ویدیوی با کیفیت بالا و بارهای کاری گرافیکی پیچیده مناسب هستند.
این نمونههای جدید EC2 بر اساس AWS Nitro System قوی ساخته خواهند شد. سیستم Nitro، با ترکیب منحصربهفرد سختافزار اختصاصی و یک هایپروایزر سبک، تقریباً تمام منابع محاسباتی و حافظه سختافزار میزبان را مستقیماً به نمونهها ارائه میدهد. این طراحی استفاده بهینه از منابع و عملکرد برتر را تضمین میکند. مهمتر از همه، سختافزار، نرمافزار و فریمورک تخصصی Nitro System برای اعمال محدودیتهای سختگیرانه مهندسی شدهاند تا بارهای کاری و دادههای حساس هوش مصنوعی را از دسترسی غیرمجاز، حتی از داخل AWS، محافظت کنند. قابلیت آن برای انجام بهروزرسانیها و بهینهسازیهای فریمورک در حین عملیات، امنیت و پایداری ضروری برای بارهای کاری هوش مصنوعی، تحلیلی و گرافیکی در سطح تولید را بیشتر میکند.
افزایش عملکرد، به ویژه برای مدلهای عظیم هوش مصنوعی، با تسریع اتصالات داخلی برای استنتاج LLM غیرمتمرکز، بیشتر میشود. با ادامه رشد اندازه مدلها، سربار ارتباطی بین GPUها یا AWS Trainium instances میتواند به یک گلوگاه مهم تبدیل شود. AWS پشتیبانی از NVIDIA Inference Xfer Library (NIXL) با AWS Elastic Fabric Adapter (EFA) را اعلام کرد که برای تسریع استنتاج LLM غیرمتمرکز بر روی Amazon EC2، هم در GPUهای NVIDIA و هم در AWS Trainium طراحی شده است. این یکپارچهسازی برای مقیاسگذاری بارهای کاری مدرن هوش مصنوعی، امکان همپوشانی کارآمد ارتباط و محاسبات، به حداقل رساندن تأخیر و به حداکثر رساندن بهرهبرداری از GPU حیاتی است. این امر جابجایی دادههای KV-cache با توان عملیاتی بالا و تأخیر کم را بین گرههای محاسباتی و منابع حافظه توزیعشده تسهیل میکند. NIXL با EFA به طور بومی با فریمورکهای متنباز محبوب مانند NVIDIA Dynamo، vLLM و SGLang یکپارچه میشود و تأخیر بین توکنها را بهبود میبخشد و استفاده از حافظه KV-cache را کارآمدتر میکند.
تسریع تحلیل دادهها با Amazon EMR و GPUها
مهندسان و دانشمندان داده اغلب با خطوط لوله پردازش داده طولانی دست و پنجه نرم میکنند که میتواند تکرار مدل هوش مصنوعی/یادگیری ماشین و تولید هوش تجاری را به طور قابل توجهی مختل کند. همکاری AWS و NVIDIA یک بهبود پیشگامانه را ارائه میدهد: 3 برابر عملکرد سریعتر برای بارهای کاری Apache Spark. این تسریع با استفاده از Amazon EMR بر روی Amazon EKS با نمونههای G7e، که توسط GPUهای NVIDIA RTX PRO 6000 Blackwell Server Edition قدرت مییابند، حاصل میشود.
این افزایش عملکرد قابل توجه نتیجه مستقیم تلاشهای مهندسی مشترک است که بر بهینهسازی تحلیلهای شتابیافته با GPU تمرکز دارد. با Amazon EMR و نمونههای G7e، سازمانها میتوانند زمان مورد نیاز برای مهندسی ویژگی هوش مصنوعی/یادگیری ماشین، تبدیلهای پیچیده ETL و تحلیلهای بلادرنگ در مقیاس بزرگ را به طور چشمگیری کاهش دهند. مشتریانی که خطوط لوله پردازش داده در مقیاس بزرگ را اجرا میکنند، میتوانند زمان رسیدن به بینش (time-to-insight) را تسریع بخشند، در حالی که سازگاری کامل با برنامههای Spark موجود خود را حفظ میکنند.
گسترش پشتیبانی از مدل Nemotron NVIDIA در Amazon Bedrock
AWS و NVIDIA همچنین در حال گسترش همکاری خود در زمینه مدلهای بنیادی هستند و مدلهای پیشرفته Nemotron NVIDIA را به Amazon Bedrock میآورند.
توسعهدهندگان به زودی این قابلیت را خواهند داشت که مدلهای NVIDIA Nemotron را مستقیماً بر روی Amazon Bedrock با استفاده از Reinforcement Fine-Tuning (RFT) تنظیم دقیق کنند. این یک تغییر دهنده بازی (game-changer) برای تیمهایی است که نیاز دارند رفتار مدل را با دامنههای خاصی، چه در زمینه حقوقی، مراقبتهای بهداشتی، مالی یا سایر حوزههای تخصصی، تطبیق دهند. RFT به کاربران امکان میدهد تا نحوه استدلال و پاسخگویی یک مدل را شکل دهند و فراتر از صرفاً کسب دانش به سمت هماهنگی رفتاری دقیق حرکت کنند. مهمتر از همه، این قابلیت به طور بومی بر روی Amazon Bedrock اجرا میشود و سربار زیرساختی را از بین میبرد – کاربران وظیفه را تعریف میکنند، بازخورد میدهند و Bedrock بقیه کارها را مدیریت میکند.
علاوه بر این، NVIDIA Nemotron 3 Super، یک مدل هیبریدی Mixture-of-Experts (MoE) که برای بارهای کاری چندعاملی و استدلال گسترده ساخته شده است، نیز به زودی در Amazon Bedrock در دسترس خواهد بود. Nemotron 3 Super که برای کمک به عوامل هوش مصنوعی (AI agents) در حفظ دقت در گردش کارهای پیچیده و چندمرحلهای مهندسی شده است، از موارد استفاده متنوعی در مالی، امنیت سایبری، خردهفروشی و توسعه نرمافزار پشتیبانی خواهد کرد. این مدل، استنتاج سریع و مقرونبهصرفه را از طریق یک API کاملاً مدیریتشده نوید میدهد و استقرار عوامل هوش مصنوعی پیچیده را ساده میکند.
در اینجا خلاصهای از اطلاعیههای کلیدی ارائه شده است:
| ویژگی/ادغام | توضیحات | مزیت اصلی | زمان دسترسی |
|---|---|---|---|
| استقرار GPU | بیش از 1 میلیون GPU از NVIDIA (معماریهای Blackwell, Rubin) در مناطق AWS. | مقیاس محاسباتی عظیم برای تمامی بارهای کاری هوش مصنوعی/یادگیری ماشین، هوش مصنوعی عاملی. | از سال 2026 |
| نمونههای Amazon EC2 | پشتیبانی از GPUهای NVIDIA RTX PRO 4500 Blackwell Server Edition در EC2. | اولین پشتیبانی ارائهدهنده بزرگ ابری برای هوش مصنوعی، گرافیک و تحلیلهای چندمنظوره. | به زودی |
| استنتاج LLM | NVIDIA NIXL بر روی AWS EFA برای استنتاج شتابیافته LLM غیرمتمرکز در سراسر GPUها و Trainiumها. | کاهش حداقل تأخیر ارتباطی، حداکثرسازی بهرهبرداری از GPU برای LLMها. | اعلام شد |
| عملکرد Apache Spark | بارهای کاری Spark 3 برابر سریعتر بر روی Amazon EMR در EKS با نمونههای G7e (RTX PRO 6000). | تسریع زمان رسیدن به بینش (time-to-insight) برای تحلیل دادهها، مهندسی ویژگی. | اعلام شد |
| تنظیم دقیق Nemotron | Reinforcement Fine-Tuning (RFT) برای مدلهای Nemotron مستقیماً بر روی Amazon Bedrock. | هماهنگی رفتار مدل خاص دامنه بدون سربار زیرساختی. | به زودی |
| Nemotron 3 Super | مدل هیبریدی MoE برای بارهای کاری چندعاملی و استدلال گسترده بر روی Amazon Bedrock. | استنتاج سریع و مقرونبهصرفه برای وظایف هوش مصنوعی پیچیده و چندمرحلهای. | به زودی |
تعهد به بهرهوری انرژی و هوش مصنوعی پایدار
با رشد تصاعدی بارهای کاری هوش مصنوعی، بهرهوری و پایداری زیرساختهای مربوطه اهمیت ویژهای پیدا میکند. این همکاری همچنین بر تعهد مشترک برای بهبود بهرهوری انرژی تأکید دارد. عملکرد بر وات (Performance per watt) دیگر تنها یک معیار پایداری نیست، بلکه یک مزیت رقابتی قابل توجه در چشمانداز هوش مصنوعی محسوب میشود.
در NVIDIA GTC 2026، Kara Hurst، مدیر ارشد پایداری Amazon، به دیگر رهبران پایداری پیوست تا در مورد چگونگی تغییر اساسی انرژی و زیرساختهای سازمانی در مقیاس وسیع توسط هوش مصنوعی بحث کنند. این بحث بر تمرکز بر توسعه و استقرار راهحلهای هوش مصنوعی تأکید میکند که نه تنها قدرتمند هستند، بلکه از نظر محیط زیستی نیز مسئولیتپذیرند، از مراکز داده بهینهشده به عنوان شرکتکنندگان فعال شبکه تا کاربردهای گستردهتر هوش مصنوعی سازمانی. این رویکرد آیندهنگر تضمین میکند که پیشرفتها در محاسبات هوش مصنوعی با اهداف پایداری جهانی همسو هستند.
سوالات متداول
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
بهروز بمانید
آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.
