Code Velocity
AI Perusahaan

AWS, NVIDIA Mengeratkan Kerjasama AI untuk Mempercepat Pengeluaran daripada Percubaan kepada Pengeluaran Penuh

·5 min bacaan·AWS, NVIDIA·Sumber asal
Kongsi
Logo AWS dan NVIDIA dipaparkan dengan jelas, melambangkan kerjasama strategik mereka yang diperluaskan untuk pecutan dan inovasi AI.

title: "AWS, NVIDIA Mengeratkan Kerjasama AI untuk Mempercepat Pengeluaran daripada Percubaan kepada Pengeluaran Penuh" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "ms" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "AI Perusahaan" keywords:

  • AWS
  • NVIDIA
  • Pecutan AI
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • Inferens LLM
  • EFA
  • Apache Spark
  • AI Perusahaan
  • AI Pengeluaran
  • Pembelajaran Mesin meta_description: "AWS dan NVIDIA mengeratkan kerjasama strategik mereka di GTC 2026, mengumumkan integrasi utama untuk mempercepat AI daripada percubaan kepada pengeluaran, termasuk penggunaan GPU yang diperluaskan, instans EC2 baharu, dan sokongan model Nemotron di Amazon Bedrock." image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "Logo AWS dan NVIDIA dipaparkan dengan jelas, melambangkan kerjasama strategik mereka yang diperluaskan untuk pecutan dan inovasi AI." quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Apakah matlamat utama kerjasama strategik yang diperluaskan antara AWS dan NVIDIA?" answer: "Kerjasama ini bertujuan untuk mempercepat peralihan penyelesaian AI daripada fasa eksperimen kepada persekitaran pengeluaran berskala penuh. Ini melibatkan pengintegrasian teknologi baharu dan pengembangan keupayaan sedia ada merentasi pengkomputeran dipercepat, teknologi antara sambungan, penalaan halus model, dan inferens. Tumpuannya adalah untuk membolehkan pelanggan membina dan menjalankan penyelesaian AI yang boleh dipercayai, berprestasi pada skala, dan mematuhi keperluan keselamatan dan peraturan perusahaan, akhirnya memacu hasil perniagaan yang bermakna melalui sistem AI sedia pengeluaran."
  • question: "Apakah pengembangan infrastruktur GPU penting yang dirancang oleh AWS sebagai sebahagian daripada kerjasama ini?" answer: "Bermula pada tahun 2026, AWS merancang untuk menggunakan lebih 1 juta GPU NVIDIA, termasuk seni bina Blackwell dan Rubin generasi akan datang, di seluruh wilayah awannya di seluruh dunia. Pengembangan besar-besaran ini mengukuhkan kedudukan AWS sebagai penyedia utama instans berasaskan GPU NVIDIA, menawarkan koleksi terluas untuk pelbagai beban kerja AI/ML. Kapasiti yang dipertingkatkan ini penting untuk menyokong permintaan yang melonjak untuk pengkomputeran AI, terutamanya untuk sistem AI agenik yang kompleks yang memerlukan kuasa pengkomputeran yang meluas."
  • question: "Bagaimanakah instans Amazon EC2 baharu dengan GPU NVIDIA RTX PRO 4500 Blackwell Server Edition akan memberi manfaat kepada pengguna?" answer: "AWS adalah penyedia awan utama pertama yang menyokong GPU NVIDIA RTX PRO 4500 Blackwell Server Edition pada instans Amazon EC2. Instans ini sangat serba boleh, sesuai untuk spektrum beban kerja yang luas seperti analitik data, AI perbualan, penjanaan kandungan, sistem pengesyoral, penstriman video, dan rendering grafik lanjutan. Dibina di atas AWS Nitro System, ia menawarkan kecekapan sumber yang dipertingkatkan, keselamatan yang teguh, dan kestabilan, memberikan prestasi unggul untuk aplikasi AI dan grafik yang menuntut."
  • question: "Bagaimanakah integrasi NVIDIA NIXL dengan AWS EFA meningkatkan inferens Model Bahasa Besar (LLM)?" answer: "Integrasi NVIDIA Inference Xfer Library (NIXL) dengan AWS Elastic Fabric Adapter (EFA) direka untuk mempercepat inferens LLM yang dipecahkan pada Amazon EC2 merentasi kedua-dua GPU NVIDIA dan instans AWS Trainium. Ini penting untuk menguruskan overhed komunikasi dalam model besar, membolehkan pertindihan komunikasi dan pengkomputeran yang cekap, meminimumkan kependaman, dan memaksimumkan penggunaan GPU. Ia memudahkan pergerakan data KV-cache throughput tinggi, kependaman rendah dan berintegrasi secara asli dengan rangka kerja sumber terbuka popular seperti NVIDIA Dynamo, vLLM, dan SGLang."
  • question: "Apakah peningkatan yang dibuat terhadap prestasi Apache Spark untuk analitik data?" answer: "Usaha kejuruteraan bersama AWS dan NVIDIA telah menghasilkan prestasi 3 kali lebih pantas untuk beban kerja Apache Spark. Ini dicapai dengan menggabungkan Amazon EMR pada Amazon EKS dengan instans G7e, yang dikuasakan oleh GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Peningkatan kelajuan yang signifikan ini membolehkan jurutera dan saintis data mempercepatkan masa untuk mendapatkan pandangan bagi tugas kritikal seperti kejuruteraan ciri AI/ML, transformasi ETL yang kompleks, dan analitik masa nyata, sambil mengekalkan keserasian penuh dengan aplikasi Spark sedia ada."
  • question: "Apakah sokongan model NVIDIA Nemotron yang diperluaskan yang akan datang ke Amazon Bedrock?" answer: "Amazon Bedrock tidak lama lagi akan menyokong penalaan halus model NVIDIA Nemotron secara langsung menggunakan Reinforcement Fine-Tuning (RFT). Keupayaan ini membolehkan pembangun menyelaraskan tingkah laku model dengan tepat kepada domain tertentu seperti undang-undang, penjagaan kesihatan, atau kewangan tanpa overhed infrastruktur. Selain itu, NVIDIA Nemotron 3 Super, model Hibrid Mixture-of-Experts (MoE) yang dioptimumkan untuk beban kerja multi-agen dan penaakulan lanjutan, juga akan tersedia di Amazon Bedrock, menyediakan inferens yang pantas dan cekap kos melalui API yang diurus sepenuhnya untuk tugas AI yang kompleks dan berbilang langkah."
  • question: "Bagaimanakah kerjasama ini menangani kecekapan tenaga dan kelestarian dalam AI?" answer: "Kerjasama ini mengakui kepentingan kecekapan tenaga yang semakin meningkat apabila beban kerja AI berkembang. Prestasi per watt ditekankan bukan sahaja sebagai metrik kelestarian tetapi juga sebagai kelebihan daya saing. Artikel ini merujuk kepada sesi GTC NVIDIA di mana pemimpin kelestarian, termasuk CSO Amazon Kara Hurst, membincangkan bagaimana AI mengubah tenaga dan infrastruktur perusahaan, menekankan usaha ke arah amalan AI yang lebih lestari daripada pusat data kepada aplikasi AI perusahaan yang lebih luas."

AWS, NVIDIA Mengeratkan Kerjasama AI untuk Mempercepat Pengeluaran daripada Percubaan kepada Pengeluaran Penuh

AI mengubah industri pada kadar yang belum pernah terjadi sebelumnya, tetapi nilai sebenar bukan hanya terletak pada eksperimen, tetapi pada kejayaan penggunaan dan pengoperasian penyelesaian AI dalam persekitaran pengeluaran. Ini menuntut sistem yang teguh, berskala, selamat, dan patuh yang memberikan hasil perniagaan yang ketara. Menangani keperluan kritikal ini, AWS dan NVIDIA mengumumkan pengembangan ketara kerjasama strategik mereka di NVIDIA GTC 2026, merasmikan integrasi teknologi baharu yang direka untuk memenuhi permintaan pengkomputeran AI yang semakin meningkat dan melonjakkan penyelesaian AI ke dalam pengeluaran dunia nyata.

Kerjasama yang diperdalam ini memfokuskan pada mempercepat setiap aspek kitaran hayat AI, daripada infrastruktur kepada penggunaan model. Integrasi ini merangkumi bidang penting termasuk pengkomputeran dipercepat, teknologi antara sambungan lanjutan, dan penalaan halus model serta inferens yang dipermudahkan. Pengumuman utama termasuk:

  • Penggunaan lebih 1 juta GPU NVIDIA di seluruh AWS Regions bermula pada tahun 2026.
  • Sokongan Amazon EC2 untuk GPU NVIDIA RTX PRO 4500 Blackwell Server Edition, menjadikan AWS penyedia awan utama pertama yang menawarkannya.
  • Pecutan antara sambungan untuk inferens Model Bahasa Besar (LLM) yang dipecahkan menggunakan NVIDIA NIXL pada AWS Elastic Fabric Adapter (EFA).
  • Prestasi 3 kali lebih pantas yang dramatik untuk beban kerja Apache Spark menggunakan Amazon EMR pada Amazon Elastic Kubernetes Service (Amazon EKS) dengan instans Amazon EC2 G7e, dikuasakan oleh GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
  • Sokongan model NVIDIA Nemotron yang diperluaskan di Amazon Bedrock, termasuk Reinforcement Fine-Tuning dan model Nemotron 3 Super.

Menskalakan Infrastruktur AI dengan Kuasa GPU NVIDIA yang Dipertingkatkan

Asas AI moden terletak pada infrastruktur pengkomputeran yang berkuasa. Bermula pada tahun 2026, AWS membuat komitmen besar untuk kemajuan AI dengan menambah lebih 1 juta GPU NVIDIA ke wilayah awannya di seluruh dunia. Ini termasuk seni bina GPU Blackwell dan Rubin generasi akan datang, memastikan pelanggan mempunyai akses kepada perkakasan paling canggih yang tersedia. AWS sudah pun mempunyai koleksi instans berasaskan GPU NVIDIA yang terluas dalam industri, memenuhi pelbagai beban kerja AI/ML, dan pengembangan ini进一步 mengukuhkan kepimpinannya.

Kerjasama jangka panjang ini, yang merentasi lebih 15 tahun, juga meliputi bidang infrastruktur penting seperti rangkaian Spectrum. Tujuannya adalah untuk menyediakan perusahaan, syarikat permulaan, dan penyelidik dengan infrastruktur teguh yang diperlukan untuk membina dan menskalakan sistem AI Agenik yang canggih—AI yang mampu membuat penaakulan autonomi, perancangan, dan tindakan merentasi aliran kerja yang kompleks.

Memperkenalkan Instans Amazon EC2 Baharu dan Inovasi Antara Sambungan

Sorotan kerjasama ini ialah instans Amazon EC2 yang akan datang yang dipercepatkan oleh GPU NVIDIA RTX PRO 4500 Blackwell Server Edition. AWS berbangga menjadi penyedia awan utama pertama yang mengumumkan sokongan untuk GPU berkuasa ini, menjadikannya mudah diakses untuk pelbagai tugas yang mencabar. Instans ini sangat sesuai untuk analitik data, AI perbualan yang canggih, penjanaan kandungan dinamik, sistem pengesyoral lanjutan, penstriman video berkualiti tinggi, dan beban kerja grafik yang kompleks.

Instans EC2 baharu ini akan dibina di atas AWS Nitro System yang teguh. Nitro System, dengan gabungan unik perkakasan khusus dan hypervisor ringan, menghantar hampir semua sumber pengkomputeran dan memori perkakasan hos terus ke instans. Reka bentuk ini memastikan penggunaan sumber dan prestasi yang unggul. Yang penting, perkakasan, perisian, dan firmware khusus Nitro System direka untuk menguatkuasakan sekatan ketat, melindungi beban kerja dan data AI yang sensitif daripada akses tanpa kebenaran, walaupun dari dalam AWS. Keupayaannya untuk melakukan kemas kini firmware dan pengoptimuman semasa beroperasi lagi meningkatkan keselamatan dan kestabilan yang penting untuk beban kerja AI gred pengeluaran, analitik, dan grafik.

Meningkatkan lagi prestasi, terutamanya untuk model AI yang besar, adalah pecutan antara sambungan untuk inferens LLM yang dipecahkan. Apabila saiz model terus meningkat, overhed komunikasi antara GPU atau instans AWS Trainium boleh menjadi kesesakan yang ketara. AWS mengumumkan sokongan untuk NVIDIA Inference Xfer Library (NIXL) dengan AWS Elastic Fabric Adapter (EFA), yang direka untuk mempercepat inferens LLM yang dipecahkan pada Amazon EC2, merangkumi kedua-dua GPU NVIDIA dan AWS Trainium. Integrasi ini penting untuk menskalakan beban kerja AI moden, membolehkan pertindihan komunikasi dan pengkomputeran yang cekap, meminimumkan kependaman, dan memaksimumkan penggunaan GPU. Ia memudahkan pergerakan data KV-cache throughput tinggi, kependaman rendah antara nod pengkomputeran dan sumber memori teragih. NIXL dengan EFA berintegrasi secara asli dengan rangka kerja sumber terbuka popular seperti NVIDIA Dynamo, vLLM, dan SGLang, memberikan kependaman antara token yang lebih baik dan penggunaan memori KV-cache yang lebih cekap.

Mempercepat Analitik Data dengan Amazon EMR dan GPU

Jurutera dan saintis data sering bergelut dengan saluran paip pemprosesan data yang panjang yang boleh menghalang iterasi model AI/ML dan penjanaan kepintaran perniagaan. Kerjasama AWS dan NVIDIA memberikan peningkatan yang inovatif: prestasi 3 kali lebih pantas untuk beban kerja Apache Spark. Pecutan ini dicapai dengan memanfaatkan Amazon EMR pada Amazon EKS dengan instans G7e, yang dikuasakan oleh GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.

Peningkatan prestasi yang besar ini adalah hasil langsung daripada usaha kejuruteraan bersama yang memfokuskan pada pengoptimuman analitik yang dipercepatkan GPU. Dengan instans Amazon EMR dan G7e, organisasi boleh mengurangkan masa yang diperlukan untuk kejuruteraan ciri AI/ML, transformasi ETL yang kompleks, dan analitik masa nyata pada skala. Pelanggan yang menjalankan saluran paip pemprosesan data berskala besar boleh mencapai masa yang lebih pantas untuk mendapatkan pandangan sambil mengekalkan keserasian penuh dengan aplikasi Spark sedia ada mereka.

Memperluaskan Sokongan Model NVIDIA Nemotron di Amazon Bedrock

AWS dan NVIDIA juga memperluaskan kerjasama mereka dalam model asas, membawa model NVIDIA Nemotron yang canggih ke Amazon Bedrock.

Pembangun tidak lama lagi akan mempunyai keupayaan untuk menala halus model NVIDIA Nemotron secara langsung di Amazon Bedrock menggunakan Reinforcement Fine-Tuning (RFT). Ini adalah pengubah permainan bagi pasukan yang perlu menyesuaikan tingkah laku model kepada domain tertentu, sama ada dalam bidang undang-undang, penjagaan kesihatan, kewangan, atau bidang khusus lain. RFT memperkasa pengguna untuk membentuk cara model menaakul dan bertindak balas, melangkaui pemerolehan pengetahuan semata-mata kepada penjajaran tingkah laku yang bernuansa. Yang penting, ini berjalan secara asli di Amazon Bedrock, menghapuskan overhed infrastruktur – pengguna menentukan tugas, memberikan maklum balas, dan Bedrock menguruskan selebihnya.

Selain itu, NVIDIA Nemotron 3 Super, model Hibrid Mixture-of-Experts (MoE) yang dibina untuk beban kerja multi-agen dan penaakulan lanjutan, juga akan datang tidak lama lagi ke Amazon Bedrock. Direka untuk membantu agen AI mengekalkan ketepatan merentasi aliran kerja kompleks dan berbilang langkah, Nemotron 3 Super akan menguasai pelbagai kes penggunaan yang merangkumi kewangan, keselamatan siber, runcit, dan pembangunan perisian. Ia menjanjikan inferens yang pantas dan cekap kos melalui API yang diurus sepenuhnya, memudahkan penggunaan agen AI yang canggih.

Berikut ialah ringkasan pengumuman utama:

Ciri/IntegrasiPeneranganFaedah UtamaKetersediaan
Penggunaan GPULebih 1 juta GPU NVIDIA (seni bina Blackwell, Rubin) di seluruh AWS Regions.Skala pengkomputeran besar-besaran untuk semua beban kerja AI/ML, AI agenik.Bermula 2026
Instans Amazon EC2Sokongan untuk GPU NVIDIA RTX PRO 4500 Blackwell Server Edition pada EC2.Sokongan penyedia awan utama pertama untuk AI serba boleh, grafik, analitik.Akan datang
Inferens LLMNVIDIA NIXL pada AWS EFA untuk inferens LLM dipecahkan dipercepatkan merentasi GPU dan Trainiums.Kependaman komunikasi diminimumkan, penggunaan GPU dimaksimumkan untuk LLM.Diumumkan
Prestasi Apache SparkBeban kerja Spark 3 kali lebih pantas pada Amazon EMR pada EKS dengan instans G7e (RTX PRO 6000).Masa-ke-pandangan yang dipercepatkan untuk analitik data, kejuruteraan ciri.Diumumkan
Penalaan Halus NemotronReinforcement Fine-Tuning (RFT) untuk model Nemotron secara langsung di Amazon Bedrock.Penjajaran tingkah laku model khusus domain tanpa overhed infrastruktur.Akan datang
Nemotron 3 SuperModel Hibrid MoE untuk beban kerja multi-agen dan penaakulan lanjutan di Amazon Bedrock.Inferens yang pantas dan cekap kos untuk tugas AI yang kompleks, berbilang langkah.Akan datang

Komitmen terhadap Kecekapan Tenaga dan AI Lestari

Apabila beban kerja AI terus berkembang secara eksponen, kecekapan dan kelestarian infrastruktur asas menjadi sangat penting. Kerjasama ini juga menonjolkan komitmen bersama untuk meningkatkan kecekapan tenaga. Prestasi per watt bukan lagi sekadar metrik kelestarian tetapi juga kelebihan daya saing yang signifikan dalam landskap AI.

Di NVIDIA GTC 2026, CSO Amazon Kara Hurst menyertai pemimpin kelestarian lain untuk membincangkan bagaimana AI secara asasnya mengubah tenaga dan infrastruktur perusahaan pada skala. Perbincangan ini menggariskan fokus untuk membangunkan dan menggunakan penyelesaian AI yang bukan sahaja berkuasa tetapi juga bertanggungjawab terhadap alam sekitar, daripada pusat data yang dioptimumkan sebagai peserta grid aktif kepada aplikasi AI perusahaan yang lebih luas. Pendekatan berpandangan ke hadapan ini memastikan bahawa kemajuan dalam pengkomputeran AI sejajar dengan matlamat kelestarian global.

Soalan Lazim

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

Kekal Dikemas Kini

Dapatkan berita AI terkini dalam peti masuk anda.

Kongsi