Code Velocity
الذكاء الاصطناعي للمؤسسات

AWS و NVIDIA تعمقان التعاون في مجال الذكاء الاصطناعي لتسريع الانتقال من التجربة الأولية إلى الإنتاج

·5 دقائق للقراءة·AWS, NVIDIA·المصدر الأصلي
مشاركة
شعارات AWS و NVIDIA معروضة بشكل بارز، ترمز إلى تعاونهما الاستراتيجي الموسع لتسريع وابتكار الذكاء الاصطناعي.

AWS و NVIDIA تعمقان التعاون في مجال الذكاء الاصطناعي لتسريع الانتقال من التجربة الأولية إلى الإنتاج

يُحدث الذكاء الاصطناعي تحولًا في الصناعات بوتيرة غير مسبوقة، لكن القيمة الحقيقية لا تكمن فقط في التجريب، بل في النشر الناجح وتشغيل حلول الذكاء الاصطناعي في بيئات الإنتاج. يتطلب هذا أنظمة قوية وقابلة للتوسع وآمنة ومتوافقة تقدم نتائج أعمال ملموسة. لمعالجة هذه الحاجة الحرجة، أعلنت AWS و NVIDIA عن توسع كبير في تعاونهما الاستراتيجي في مؤتمر NVIDIA GTC 2026، كاشفين عن تكاملات تقنية جديدة مصممة لتلبية الطلب المتزايد على حوسبة الذكاء الاصطناعي ودفع حلول الذكاء الاصطناعي إلى الإنتاج الفعلي.

تركز الشراكة المتعمقة على تسريع كل جانب من جوانب دورة حياة الذكاء الاصطناعي، من البنية التحتية إلى نشر النماذج. تمتد هذه التكاملات لتشمل مجالات حاسمة مثل الحوسبة المسرّعة، وتقنيات الترابط المتقدمة، وضبط النماذج والاستدلال المبسط. تشمل الإعلانات الرئيسية:

  • نشر أكثر من مليون وحدة معالجة رسوميات (GPU) من NVIDIA عبر مناطق AWS اعتبارًا من عام 2026.
  • دعم Amazon EC2 لوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition، مما يجعل AWS أول مزود سحابي رئيسي يقدم هذا الدعم.
  • تسريع الترابط لاستدلال النماذج اللغوية الكبيرة (LLM) غير المجمعة باستخدام NVIDIA NIXL على AWS Elastic Fabric Adapter (EFA).
  • تحسين مذهل للأداء بثلاثة أضعاف لأعباء عمل Apache Spark باستخدام Amazon EMR على Amazon Elastic Kubernetes Service (Amazon EKS) مع مثيلات Amazon EC2 G7e، المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 6000 Blackwell Server Edition.
  • دعم موسع لنموذج NVIDIA Nemotron على Amazon Bedrock، بما في ذلك الضبط الدقيق المعزز (Reinforcement Fine-Tuning) ونموذج Nemotron 3 Super.

توسيع نطاق البنية التحتية للذكاء الاصطناعي بقوة وحدات معالجة الرسوميات (GPU) المعززة من NVIDIA

يرتكز أساس الذكاء الاصطناعي الحديث على بنية تحتية حاسوبية قوية. اعتبارًا من عام 2026، تتعهد AWS بالتزام هائل تجاه تقدم الذكاء الاصطناعي بإضافة أكثر من مليون وحدة معالجة رسوميات (GPU) من NVIDIA إلى مناطقها السحابية العالمية. يشمل ذلك بنيتي Blackwell و Rubin المعماريتين من الجيل التالي لوحدات معالجة الرسوميات، مما يضمن حصول العملاء على أحدث الأجهزة المتاحة. تفتخر AWS بالفعل بأوسع مجموعة من مثيلات NVIDIA القائمة على وحدات معالجة الرسوميات في الصناعة، والتي تلبي مجموعة متنوعة من أعباء عمل الذكاء الاصطناعي/تعلم الآلة، وهذا التوسع يعزز ريادتها.

تمتد هذه الشراكة طويلة الأمد، التي تمتد لأكثر من 15 عامًا، أيضًا إلى مجالات البنية التحتية الحاسمة مثل شبكات Spectrum. الهدف هو تزويد المؤسسات والشركات الناشئة والباحثين بالبنية التحتية القوية اللازمة لبناء وتوسيع نطاق أنظمة الذكاء الاصطناعي العاملة المتقدمة (Agentic AI) — وهو ذكاء اصطناعي قادر على التفكير والتخطيط والعمل بشكل مستقل عبر سير العمل المعقدة.

تقديم مثيلات Amazon EC2 جديدة وابتكارات الترابط

من أبرز ما يميز هذا التعاون هو مثيلات Amazon EC2 القادمة المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition. تفخر AWS بأنها أول مزود سحابي رئيسي يعلن عن دعم هذه الوحدات القوية، مما يجعلها في متناول مجموعة واسعة من المهام المتطلبة. هذه المثيلات مناسبة بشكل مثالي لتحليلات البيانات، والذكاء الاصطناعي التخاطبي المتطور، وتوليد المحتوى الديناميكي، وأنظمة التوصية المتقدمة، وبث الفيديو عالي الجودة، وأعباء عمل الرسومات المعقدة.

سيتم بناء مثيلات EC2 الجديدة هذه على نظام AWS Nitro System القوي. يوفر نظام Nitro، بتجميعه الفريد من الأجهزة المخصصة ومحرك الأجهزة الافتراضية خفيف الوزن (lightweight hypervisor)، تقريبًا جميع موارد الحوسبة والذاكرة الخاصة بالجهاز المضيف مباشرة إلى المثيلات. يضمن هذا التصميم استخدامًا فائقًا للموارد وأداءً عاليًا. والأهم من ذلك، أن أجهزة وبرامج وبرامج نظام Nitro المتخصصة مصممة لفرض قيود صارمة، وحماية أعباء عمل وبيانات الذكاء الاصطناعي الحساسة من الوصول غير المصرح به، حتى من داخل AWS. كما أن قدرته على إجراء تحديثات وتحسينات البرامج الثابتة أثناء التشغيل تعزز الأمن والاستقرار الضروريين لأعباء عمل الذكاء الاصطناعي والتحليلات والرسومات على مستوى الإنتاج.

ولزيادة تحسين الأداء، لا سيما بالنسبة لنماذج الذكاء الاصطناعي الضخمة، يتم تسريع الترابط من أجل استدلال LLM غير المجمعة. مع استمرار نمو أحجام النماذج، يمكن أن يصبح الحمل الزائد للاتصالات بين وحدات معالجة الرسوميات (GPUs) أو مثيلات AWS Trainium عنق الزجاجة الكبير. أعلنت AWS عن دعم مكتبة NVIDIA Inference Xfer Library (NIXL) مع AWS Elastic Fabric Adapter (EFA)، المصممة لتسريع استدلال LLM غير المجمعة على Amazon EC2، والتي تغطي كل من وحدات معالجة الرسوميات NVIDIA و AWS Trainium. يعد هذا التكامل حيويًا لتوسيع نطاق أعباء عمل الذكاء الاصطناعي الحديثة، مما يتيح تداخلًا فعالًا بين الاتصال والحساب، وتقليل زمن الوصول، وزيادة استخدام GPU. يسهل ذلك نقل بيانات KV-cache عالية الإنتاجية ومنخفضة الكمون بين عقد الحوسبة وموارد الذاكرة الموزعة. تتكامل NIXL مع EFA أصلاً مع أطر عمل مفتوحة المصدر الشائعة مثل NVIDIA Dynamo و vLLM و SGLang، مما يوفر زمن وصول محسّن بين الرموز واستخدامًا أكثر كفاءة لذاكرة KV-cache.

تسريع تحليلات البيانات باستخدام Amazon EMR ووحدات معالجة الرسوميات

يتعامل مهندسو وعلماء البيانات بشكل متكرر مع مسارات معالجة البيانات الطويلة التي يمكن أن تعيق بشكل كبير تكرار نماذج الذكاء الاصطناعي/تعلم الآلة وتوليد ذكاء الأعمال. يقدم تعاون AWS و NVIDIA تحسينًا رائدًا: أداء أسرع بثلاث مرات لأعباء عمل Apache Spark. يتم تحقيق هذا التسريع من خلال الاستفادة من Amazon EMR على Amazon EKS مع مثيلات G7e، المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 6000 Blackwell Server Edition.

يعد هذا المكسب الكبير في الأداء نتيجة مباشرة للجهود الهندسية المشتركة التي ركزت على تحسين التحليلات المسرّعة بواسطة وحدات معالجة الرسوميات. باستخدام Amazon EMR ومثيلات G7e، يمكن للمؤسسات تقليل الوقت اللازم بشكل كبير لهندسة ميزات الذكاء الاصطناعي/تعلم الآلة، وتحويلات ETL المعقدة، والتحليلات في الوقت الفعلي على نطاق واسع. يمكن للعملاء الذين يديرون مسارات معالجة بيانات واسعة النطاق تحقيق وقت أسرع للحصول على الرؤى مع الحفاظ على التوافق الكامل مع تطبيقات Spark الحالية الخاصة بهم.

توسيع دعم نموذج NVIDIA Nemotron على Amazon Bedrock

تعمل AWS و NVIDIA أيضًا على توسيع تعاونهما بشأن النماذج الأساسية، وتقديم نماذج NVIDIA Nemotron المتقدمة إلى Amazon Bedrock.

سيتمكن المطورون قريبًا من ضبط نماذج NVIDIA Nemotron مباشرة على Amazon Bedrock باستخدام الضبط الدقيق المعزز (Reinforcement Fine-Tuning - RFT). وهذا يمثل تغييرًا جذريًا للفرق التي تحتاج إلى تكييف سلوك النموذج مع مجالات محددة، سواء في المجالات القانونية أو الرعاية الصحية أو المالية أو غيرها من المجالات المتخصصة. يُمكّن RFT المستخدمين من تشكيل كيفية تفكير النموذج واستجابته، متجاوزًا مجرد اكتساب المعرفة إلى مواءمة سلوكية دقيقة. والأهم من ذلك، أن هذا يعمل بشكل طبيعي على Amazon Bedrock، مما يلغي تكاليف البنية التحتية الإضافية – يحدد المستخدمون المهمة، ويقدمون الملاحظات، ويدير Bedrock الباقي.

علاوة على ذلك، سيتاح قريبًا NVIDIA Nemotron 3 Super، وهو نموذج هجين من نوع Mixture-of-Experts (MoE) مصمم لأعباء عمل العوامل المتعددة (multi-agent workloads) والتفكير الموسع، على Amazon Bedrock. صُمم Nemotron 3 Super لمساعدة عوامل الذكاء الاصطناعي في الحفاظ على الدقة عبر سير العمل المعقدة والمتعددة الخطوات، وسيدعم حالات استخدام متنوعة تشمل التمويل والأمن السيبراني وتجارة التجزئة وتطوير البرمجيات. ويَعِد بتقديم استدلال سريع وفعال من حيث التكلفة من خلال واجهة برمجة تطبيقات مُدارة بالكامل (API)، مما يبسط نشر عوامل الذكاء الاصطناعي المتطورة.

فيما يلي ملخص للإعلانات الرئيسية:

الميزة/التكاملالوصفالفائدة الأساسيةالتوفر
نشر وحدات معالجة الرسوميات (GPU)أكثر من مليون وحدة معالجة رسوميات من NVIDIA (بنيتي Blackwell و Rubin المعماريتين) عبر مناطق AWS.نطاق حوسبة ضخم لجميع أعباء عمل الذكاء الاصطناعي/تعلم الآلة، الذكاء الاصطناعي العامل.بدءًا من 2026
مثيلات Amazon EC2دعم لوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition على EC2.أول دعم لمزود سحابي رئيسي للذكاء الاصطناعي والرسومات والتحليلات متعددة الاستخدامات.قريبا
استدلال LLMNVIDIA NIXL على AWS EFA لاستدلال LLM غير المجمعة والمسرعة عبر وحدات معالجة الرسوميات و Trainiums.تقليل زمن انتقال الاتصال، وزيادة استخدام GPU للنماذج اللغوية الكبيرة.تم الإعلان عنه
أداء Apache Sparkأعباء عمل Spark أسرع بثلاث مرات على Amazon EMR على EKS مع مثيلات G7e (RTX PRO 6000).تسريع وقت الحصول على الرؤى لتحليلات البيانات، وهندسة الميزات.تم الإعلان عنه
ضبط Nemotronالضبط الدقيق المعزز (RFT) لنماذج Nemotron مباشرة على Amazon Bedrock.مواءمة سلوك النموذج الخاص بالمجال دون تكاليف بنية تحتية إضافية.قريبا
Nemotron 3 Superنموذج هجين من نوع MoE لأعباء عمل العوامل المتعددة والتفكير الموسع على Amazon Bedrock.استدلال سريع وفعال من حيث التكلفة لمهام الذكاء الاصطناعي المعقدة والمتعددة الخطوات.قريبا

الالتزام بكفاءة الطاقة والذكاء الاصطناعي المستدام

مع استمرار نمو أعباء عمل الذكاء الاصطناعي بشكل كبير، تصبح كفاءة واستدامة البنية التحتية الأساسية ذات أهمية قصوى. يسلط التعاون الضوء أيضًا على التزام مشترك بتحسين كفاءة الطاقة. لم يعد الأداء لكل واط مجرد مقياس للاستدامة، بل أصبح ميزة تنافسية مهمة في مشهد الذكاء الاصطناعي.

في مؤتمر NVIDIA GTC 2026، انضمت كارا هيرست، كبيرة مسؤولي الاستدامة في Amazon، إلى قادة الاستدامة الآخرين لمناقشة كيف يُحدث الذكاء الاصطناعي تحولًا جذريًا في طاقة البنية التحتية للمؤسسات على نطاق واسع. يؤكد هذا النقاش على التركيز على تطوير ونشر حلول الذكاء الاصطناعي التي لا تكون قوية فحسب، بل مسؤولة بيئيًا أيضًا، بدءًا من مراكز البيانات المُحسّنة كمشاركين نشطين في الشبكة ووصولًا إلى تطبيقات الذكاء الاصطناعي الأوسع للمؤسسات. يضمن هذا النهج المستقبلي أن تتوافق التطورات في حوسبة الذكاء الاصطناعي مع أهداف الاستدامة العالمية.

الأسئلة الشائعة

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

ابقَ على اطلاع

احصل على آخر أخبار الذكاء الاصطناعي في بريدك.

مشاركة