AWS و NVIDIA تعمقان التعاون في مجال الذكاء الاصطناعي لتسريع الانتقال من التجربة الأولية إلى الإنتاج
يُحدث الذكاء الاصطناعي تحولًا في الصناعات بوتيرة غير مسبوقة، لكن القيمة الحقيقية لا تكمن فقط في التجريب، بل في النشر الناجح وتشغيل حلول الذكاء الاصطناعي في بيئات الإنتاج. يتطلب هذا أنظمة قوية وقابلة للتوسع وآمنة ومتوافقة تقدم نتائج أعمال ملموسة. لمعالجة هذه الحاجة الحرجة، أعلنت AWS و NVIDIA عن توسع كبير في تعاونهما الاستراتيجي في مؤتمر NVIDIA GTC 2026، كاشفين عن تكاملات تقنية جديدة مصممة لتلبية الطلب المتزايد على حوسبة الذكاء الاصطناعي ودفع حلول الذكاء الاصطناعي إلى الإنتاج الفعلي.
تركز الشراكة المتعمقة على تسريع كل جانب من جوانب دورة حياة الذكاء الاصطناعي، من البنية التحتية إلى نشر النماذج. تمتد هذه التكاملات لتشمل مجالات حاسمة مثل الحوسبة المسرّعة، وتقنيات الترابط المتقدمة، وضبط النماذج والاستدلال المبسط. تشمل الإعلانات الرئيسية:
- نشر أكثر من مليون وحدة معالجة رسوميات (GPU) من NVIDIA عبر مناطق AWS اعتبارًا من عام 2026.
- دعم Amazon EC2 لوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition، مما يجعل AWS أول مزود سحابي رئيسي يقدم هذا الدعم.
- تسريع الترابط لاستدلال النماذج اللغوية الكبيرة (LLM) غير المجمعة باستخدام NVIDIA NIXL على AWS Elastic Fabric Adapter (EFA).
- تحسين مذهل للأداء بثلاثة أضعاف لأعباء عمل Apache Spark باستخدام Amazon EMR على Amazon Elastic Kubernetes Service (Amazon EKS) مع مثيلات Amazon EC2 G7e، المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 6000 Blackwell Server Edition.
- دعم موسع لنموذج NVIDIA Nemotron على Amazon Bedrock، بما في ذلك الضبط الدقيق المعزز (Reinforcement Fine-Tuning) ونموذج Nemotron 3 Super.
توسيع نطاق البنية التحتية للذكاء الاصطناعي بقوة وحدات معالجة الرسوميات (GPU) المعززة من NVIDIA
يرتكز أساس الذكاء الاصطناعي الحديث على بنية تحتية حاسوبية قوية. اعتبارًا من عام 2026، تتعهد AWS بالتزام هائل تجاه تقدم الذكاء الاصطناعي بإضافة أكثر من مليون وحدة معالجة رسوميات (GPU) من NVIDIA إلى مناطقها السحابية العالمية. يشمل ذلك بنيتي Blackwell و Rubin المعماريتين من الجيل التالي لوحدات معالجة الرسوميات، مما يضمن حصول العملاء على أحدث الأجهزة المتاحة. تفتخر AWS بالفعل بأوسع مجموعة من مثيلات NVIDIA القائمة على وحدات معالجة الرسوميات في الصناعة، والتي تلبي مجموعة متنوعة من أعباء عمل الذكاء الاصطناعي/تعلم الآلة، وهذا التوسع يعزز ريادتها.
تمتد هذه الشراكة طويلة الأمد، التي تمتد لأكثر من 15 عامًا، أيضًا إلى مجالات البنية التحتية الحاسمة مثل شبكات Spectrum. الهدف هو تزويد المؤسسات والشركات الناشئة والباحثين بالبنية التحتية القوية اللازمة لبناء وتوسيع نطاق أنظمة الذكاء الاصطناعي العاملة المتقدمة (Agentic AI) — وهو ذكاء اصطناعي قادر على التفكير والتخطيط والعمل بشكل مستقل عبر سير العمل المعقدة.
تقديم مثيلات Amazon EC2 جديدة وابتكارات الترابط
من أبرز ما يميز هذا التعاون هو مثيلات Amazon EC2 القادمة المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition. تفخر AWS بأنها أول مزود سحابي رئيسي يعلن عن دعم هذه الوحدات القوية، مما يجعلها في متناول مجموعة واسعة من المهام المتطلبة. هذه المثيلات مناسبة بشكل مثالي لتحليلات البيانات، والذكاء الاصطناعي التخاطبي المتطور، وتوليد المحتوى الديناميكي، وأنظمة التوصية المتقدمة، وبث الفيديو عالي الجودة، وأعباء عمل الرسومات المعقدة.
سيتم بناء مثيلات EC2 الجديدة هذه على نظام AWS Nitro System القوي. يوفر نظام Nitro، بتجميعه الفريد من الأجهزة المخصصة ومحرك الأجهزة الافتراضية خفيف الوزن (lightweight hypervisor)، تقريبًا جميع موارد الحوسبة والذاكرة الخاصة بالجهاز المضيف مباشرة إلى المثيلات. يضمن هذا التصميم استخدامًا فائقًا للموارد وأداءً عاليًا. والأهم من ذلك، أن أجهزة وبرامج وبرامج نظام Nitro المتخصصة مصممة لفرض قيود صارمة، وحماية أعباء عمل وبيانات الذكاء الاصطناعي الحساسة من الوصول غير المصرح به، حتى من داخل AWS. كما أن قدرته على إجراء تحديثات وتحسينات البرامج الثابتة أثناء التشغيل تعزز الأمن والاستقرار الضروريين لأعباء عمل الذكاء الاصطناعي والتحليلات والرسومات على مستوى الإنتاج.
ولزيادة تحسين الأداء، لا سيما بالنسبة لنماذج الذكاء الاصطناعي الضخمة، يتم تسريع الترابط من أجل استدلال LLM غير المجمعة. مع استمرار نمو أحجام النماذج، يمكن أن يصبح الحمل الزائد للاتصالات بين وحدات معالجة الرسوميات (GPUs) أو مثيلات AWS Trainium عنق الزجاجة الكبير. أعلنت AWS عن دعم مكتبة NVIDIA Inference Xfer Library (NIXL) مع AWS Elastic Fabric Adapter (EFA)، المصممة لتسريع استدلال LLM غير المجمعة على Amazon EC2، والتي تغطي كل من وحدات معالجة الرسوميات NVIDIA و AWS Trainium. يعد هذا التكامل حيويًا لتوسيع نطاق أعباء عمل الذكاء الاصطناعي الحديثة، مما يتيح تداخلًا فعالًا بين الاتصال والحساب، وتقليل زمن الوصول، وزيادة استخدام GPU. يسهل ذلك نقل بيانات KV-cache عالية الإنتاجية ومنخفضة الكمون بين عقد الحوسبة وموارد الذاكرة الموزعة. تتكامل NIXL مع EFA أصلاً مع أطر عمل مفتوحة المصدر الشائعة مثل NVIDIA Dynamo و vLLM و SGLang، مما يوفر زمن وصول محسّن بين الرموز واستخدامًا أكثر كفاءة لذاكرة KV-cache.
تسريع تحليلات البيانات باستخدام Amazon EMR ووحدات معالجة الرسوميات
يتعامل مهندسو وعلماء البيانات بشكل متكرر مع مسارات معالجة البيانات الطويلة التي يمكن أن تعيق بشكل كبير تكرار نماذج الذكاء الاصطناعي/تعلم الآلة وتوليد ذكاء الأعمال. يقدم تعاون AWS و NVIDIA تحسينًا رائدًا: أداء أسرع بثلاث مرات لأعباء عمل Apache Spark. يتم تحقيق هذا التسريع من خلال الاستفادة من Amazon EMR على Amazon EKS مع مثيلات G7e، المدعومة بوحدات معالجة الرسوميات NVIDIA RTX PRO 6000 Blackwell Server Edition.
يعد هذا المكسب الكبير في الأداء نتيجة مباشرة للجهود الهندسية المشتركة التي ركزت على تحسين التحليلات المسرّعة بواسطة وحدات معالجة الرسوميات. باستخدام Amazon EMR ومثيلات G7e، يمكن للمؤسسات تقليل الوقت اللازم بشكل كبير لهندسة ميزات الذكاء الاصطناعي/تعلم الآلة، وتحويلات ETL المعقدة، والتحليلات في الوقت الفعلي على نطاق واسع. يمكن للعملاء الذين يديرون مسارات معالجة بيانات واسعة النطاق تحقيق وقت أسرع للحصول على الرؤى مع الحفاظ على التوافق الكامل مع تطبيقات Spark الحالية الخاصة بهم.
توسيع دعم نموذج NVIDIA Nemotron على Amazon Bedrock
تعمل AWS و NVIDIA أيضًا على توسيع تعاونهما بشأن النماذج الأساسية، وتقديم نماذج NVIDIA Nemotron المتقدمة إلى Amazon Bedrock.
سيتمكن المطورون قريبًا من ضبط نماذج NVIDIA Nemotron مباشرة على Amazon Bedrock باستخدام الضبط الدقيق المعزز (Reinforcement Fine-Tuning - RFT). وهذا يمثل تغييرًا جذريًا للفرق التي تحتاج إلى تكييف سلوك النموذج مع مجالات محددة، سواء في المجالات القانونية أو الرعاية الصحية أو المالية أو غيرها من المجالات المتخصصة. يُمكّن RFT المستخدمين من تشكيل كيفية تفكير النموذج واستجابته، متجاوزًا مجرد اكتساب المعرفة إلى مواءمة سلوكية دقيقة. والأهم من ذلك، أن هذا يعمل بشكل طبيعي على Amazon Bedrock، مما يلغي تكاليف البنية التحتية الإضافية – يحدد المستخدمون المهمة، ويقدمون الملاحظات، ويدير Bedrock الباقي.
علاوة على ذلك، سيتاح قريبًا NVIDIA Nemotron 3 Super، وهو نموذج هجين من نوع Mixture-of-Experts (MoE) مصمم لأعباء عمل العوامل المتعددة (multi-agent workloads) والتفكير الموسع، على Amazon Bedrock. صُمم Nemotron 3 Super لمساعدة عوامل الذكاء الاصطناعي في الحفاظ على الدقة عبر سير العمل المعقدة والمتعددة الخطوات، وسيدعم حالات استخدام متنوعة تشمل التمويل والأمن السيبراني وتجارة التجزئة وتطوير البرمجيات. ويَعِد بتقديم استدلال سريع وفعال من حيث التكلفة من خلال واجهة برمجة تطبيقات مُدارة بالكامل (API)، مما يبسط نشر عوامل الذكاء الاصطناعي المتطورة.
فيما يلي ملخص للإعلانات الرئيسية:
| الميزة/التكامل | الوصف | الفائدة الأساسية | التوفر |
|---|---|---|---|
| نشر وحدات معالجة الرسوميات (GPU) | أكثر من مليون وحدة معالجة رسوميات من NVIDIA (بنيتي Blackwell و Rubin المعماريتين) عبر مناطق AWS. | نطاق حوسبة ضخم لجميع أعباء عمل الذكاء الاصطناعي/تعلم الآلة، الذكاء الاصطناعي العامل. | بدءًا من 2026 |
| مثيلات Amazon EC2 | دعم لوحدات معالجة الرسوميات NVIDIA RTX PRO 4500 Blackwell Server Edition على EC2. | أول دعم لمزود سحابي رئيسي للذكاء الاصطناعي والرسومات والتحليلات متعددة الاستخدامات. | قريبا |
| استدلال LLM | NVIDIA NIXL على AWS EFA لاستدلال LLM غير المجمعة والمسرعة عبر وحدات معالجة الرسوميات و Trainiums. | تقليل زمن انتقال الاتصال، وزيادة استخدام GPU للنماذج اللغوية الكبيرة. | تم الإعلان عنه |
| أداء Apache Spark | أعباء عمل Spark أسرع بثلاث مرات على Amazon EMR على EKS مع مثيلات G7e (RTX PRO 6000). | تسريع وقت الحصول على الرؤى لتحليلات البيانات، وهندسة الميزات. | تم الإعلان عنه |
| ضبط Nemotron | الضبط الدقيق المعزز (RFT) لنماذج Nemotron مباشرة على Amazon Bedrock. | مواءمة سلوك النموذج الخاص بالمجال دون تكاليف بنية تحتية إضافية. | قريبا |
| Nemotron 3 Super | نموذج هجين من نوع MoE لأعباء عمل العوامل المتعددة والتفكير الموسع على Amazon Bedrock. | استدلال سريع وفعال من حيث التكلفة لمهام الذكاء الاصطناعي المعقدة والمتعددة الخطوات. | قريبا |
الالتزام بكفاءة الطاقة والذكاء الاصطناعي المستدام
مع استمرار نمو أعباء عمل الذكاء الاصطناعي بشكل كبير، تصبح كفاءة واستدامة البنية التحتية الأساسية ذات أهمية قصوى. يسلط التعاون الضوء أيضًا على التزام مشترك بتحسين كفاءة الطاقة. لم يعد الأداء لكل واط مجرد مقياس للاستدامة، بل أصبح ميزة تنافسية مهمة في مشهد الذكاء الاصطناعي.
في مؤتمر NVIDIA GTC 2026، انضمت كارا هيرست، كبيرة مسؤولي الاستدامة في Amazon، إلى قادة الاستدامة الآخرين لمناقشة كيف يُحدث الذكاء الاصطناعي تحولًا جذريًا في طاقة البنية التحتية للمؤسسات على نطاق واسع. يؤكد هذا النقاش على التركيز على تطوير ونشر حلول الذكاء الاصطناعي التي لا تكون قوية فحسب، بل مسؤولة بيئيًا أيضًا، بدءًا من مراكز البيانات المُحسّنة كمشاركين نشطين في الشبكة ووصولًا إلى تطبيقات الذكاء الاصطناعي الأوسع للمؤسسات. يضمن هذا النهج المستقبلي أن تتوافق التطورات في حوسبة الذكاء الاصطناعي مع أهداف الاستدامة العالمية.
الأسئلة الشائعة
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
ابقَ على اطلاع
احصل على آخر أخبار الذكاء الاصطناعي في بريدك.
