Code Velocity
AI สำหรับองค์กร

AWS, NVIDIA กระชับความร่วมมือด้าน AI เพื่อเร่งการนำไปใช้งานจริง

·5 นาทีอ่าน·AWS, NVIDIA·แหล่งที่มา
แชร์
โลโก้ AWS และ NVIDIA แสดงอย่างโดดเด่น เป็นสัญลักษณ์ของความร่วมมือเชิงกลยุทธ์ที่ขยายตัวเพื่อเร่งความเร็วและนวัตกรรม AI

title: "AWS, NVIDIA กระชับความร่วมมือด้าน AI เพื่อเร่งการนำไปใช้งานจริง" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "th" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "AI สำหรับองค์กร" keywords:

  • AWS
  • NVIDIA
  • การเร่งความเร็ว AI
  • GTC 2026
  • GPU
  • Amazon EC2
  • Amazon Bedrock
  • Nemotron
  • การอนุมาน LLM
  • EFA
  • Apache Spark
  • AI สำหรับองค์กร
  • AI สำหรับการใช้งานจริง
  • การเรียนรู้ของเครื่อง meta_description: "AWS และ NVIDIA กระชับความร่วมมือเชิงกลยุทธ์ที่ GTC 2026 โดยประกาศการผสานรวมที่สำคัญเพื่อเร่งการนำ AI จากระยะนำร่องสู่การใช้งานจริง รวมถึงการปรับใช้ GPU ที่ขยายตัว อินสแตนซ์ EC2 ใหม่ และการรองรับโมเดล Nemotron บน Amazon Bedrock" image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "โลโก้ AWS และ NVIDIA แสดงอย่างโดดเด่น เป็นสัญลักษณ์ของความร่วมมือเชิงกลยุทธ์ที่ขยายตัวเพื่อเร่งความเร็วและนวัตกรรม AI" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • AWS
  • NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "เป้าหมายหลักของการขยายความร่วมมือเชิงกลยุทธ์ระหว่าง AWS และ NVIDIA คืออะไร?" answer: "ความร่วมมือนี้มีเป้าหมายเพื่อเร่งการเปลี่ยนผ่านของโซลูชัน AI จากระยะทดลองไปสู่สภาพแวดล้อมการผลิตเต็มรูปแบบ ซึ่งเกี่ยวข้องกับการผสานรวมเทคโนโลยีใหม่ ๆ และการขยายขีดความสามารถที่มีอยู่ทั่วทั้งการประมวลผลแบบเร่งความเร็ว เทคโนโลยีการเชื่อมต่อ การปรับแต่งโมเดล และการอนุมาน โดยมุ่งเน้นที่การช่วยให้ลูกค้าสามารถสร้างและรันโซลูชัน AI ที่เชื่อถือได้ มีประสิทธิภาพในขนาดที่ใหญ่ และเป็นไปตามข้อกำหนดด้านความปลอดภัยและกฎระเบียบขององค์กร ซึ่งท้ายที่สุดแล้วจะขับเคลื่อนผลลัพธ์ทางธุรกิจที่มีความหมายผ่านระบบ AI ที่พร้อมใช้งานจริง"
  • question: "AWS มีแผนขยายโครงสร้างพื้นฐาน GPU ที่สำคัญอย่างไรในความร่วมมือนี้?" answer: "เริ่มต้นในปี 2026 AWS วางแผนที่จะปรับใช้ NVIDIA GPU กว่า 1 ล้านตัว รวมถึงสถาปัตยกรรม Blackwell และ Rubin เจเนอเรชันถัดไป ทั่วทั้งภูมิภาคคลาวด์ทั่วโลก การขยายขนาดมหาศาลนี้ตอกย้ำตำแหน่งของ AWS ในฐานะผู้ให้บริการอินสแตนซ์ที่ใช้ NVIDIA GPU ชั้นนำ โดยนำเสนอคอลเลกชันที่กว้างขวางที่สุดสำหรับเวิร์กโหลด AI/ML ที่หลากหลาย กำลังการผลิตที่เพิ่มขึ้นนี้มีความสำคัญอย่างยิ่งต่อการรองรับความต้องการด้านการประมวลผล AI ที่พุ่งสูงขึ้น โดยเฉพาะอย่างยิ่งสำหรับระบบ AI เชิงตัวแทน (agentic AI) ที่ซับซ้อนซึ่งต้องใช้พลังงานการประมวลผลจำนวนมาก"
  • question: "อินสแตนซ์ Amazon EC2 ใหม่ที่ใช้ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs จะเป็นประโยชน์ต่อผู้ใช้อย่างไร?" answer: "AWS เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่รองรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs บนอินสแตนซ์ Amazon EC2 อินสแตนซ์เหล่านี้มีความอเนกประสงค์สูง เหมาะสำหรับเวิร์กโหลดที่หลากหลาย เช่น การวิเคราะห์ข้อมูล, AI เชิงสนทนา, การสร้างเนื้อหา, ระบบแนะนำ, การสตรีมวิดีโอ และการเรนเดอร์กราฟิกขั้นสูง สร้างขึ้นบน AWS Nitro System ทำให้มีประสิทธิภาพการใช้ทรัพยากรที่เพิ่มขึ้น ความปลอดภัยที่แข็งแกร่ง และความเสถียร มอบประสิทธิภาพที่เหนือกว่าสำหรับแอปพลิเคชัน AI และกราฟิกที่ต้องการพลังประมวลผลสูง"
  • question: "การผสานรวม NVIDIA NIXL กับ AWS EFA ช่วยเพิ่มประสิทธิภาพการอนุมาน Large Language Model (LLM) ได้อย่างไร?" answer: "การผสานรวม NVIDIA Inference Xfer Library (NIXL) กับ AWS Elastic Fabric Adapter (EFA) ได้รับการออกแบบมาเพื่อเร่งการอนุมาน LLM แบบกระจายส่วน (disaggregated) บน Amazon EC2 ทั้งบน NVIDIA GPUs และอินสแตนซ์ AWS Trainium ซึ่งสิ่งนี้มีความสำคัญอย่างยิ่งต่อการจัดการค่าใช้จ่ายในการสื่อสาร (communication overhead) ในโมเดลขนาดใหญ่ ทำให้สามารถซ้อนทับการสื่อสารและการคำนวณได้อย่างมีประสิทธิภาพ ลดความหน่วง และเพิ่มการใช้งาน GPU ให้สูงสุด ช่วยอำนวยความสะดวกในการเคลื่อนย้ายข้อมูล KV-cache ที่มีปริมาณงานสูงและมีความหน่วงต่ำ และผสานรวมเข้ากับเฟรมเวิร์กโอเพนซอร์สยอดนิยมอย่าง NVIDIA Dynamo, vLLM และ SGLang ได้อย่างราบรื่น"
  • question: "มีการปรับปรุงประสิทธิภาพ Apache Spark สำหรับการวิเคราะห์ข้อมูลอย่างไรบ้าง?" answer: "ความพยายามด้านวิศวกรรมร่วมกันของ AWS และ NVIDIA ส่งผลให้ประสิทธิภาพสำหรับเวิร์กโหลด Apache Spark เร็วขึ้น 3 เท่า สิ่งนี้ทำได้โดยการรวม Amazon EMR บน Amazon EKS เข้ากับอินสแตนซ์ G7e ซึ่งขับเคลื่อนด้วย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs การเร่งความเร็วที่สำคัญนี้ช่วยให้วิศวกรข้อมูลและนักวิทยาศาสตร์สามารถเร่งเวลาในการรับข้อมูลเชิงลึกสำหรับงานสำคัญ เช่น การทำวิศวกรรมคุณสมบัติ AI/ML การแปลง ETL ที่ซับซ้อน และการวิเคราะห์แบบเรียลไทม์ โดยยังคงความเข้ากันได้กับแอปพลิเคชัน Spark ที่มีอยู่เดิม"
  • question: "การรองรับโมเดล NVIDIA Nemotron ที่ขยายเพิ่มขึ้นบน Amazon Bedrock มีอะไรบ้าง?" answer: "Amazon Bedrock จะรองรับการปรับแต่งโมเดล NVIDIA Nemotron โดยตรงโดยใช้ Reinforcement Fine-Tuning (RFT) ในเร็ว ๆ นี้ ความสามารถนี้ช่วยให้นักพัฒนาสามารถปรับพฤติกรรมของโมเดลให้สอดคล้องกับโดเมนเฉพาะได้อย่างแม่นยำ เช่น กฎหมาย การดูแลสุขภาพ หรือการเงิน โดยไม่มีภาระด้านโครงสร้างพื้นฐาน นอกจากนี้ NVIDIA Nemotron 3 Super ซึ่งเป็นโมเดล Mixture-of-Experts (MoE) แบบไฮบริดที่ปรับให้เหมาะสมสำหรับเวิร์กโหลดแบบหลายตัวแทน (multi-agent) และการให้เหตุผลที่ซับซ้อน จะพร้อมใช้งานบน Amazon Bedrock ด้วย โดยจะให้การอนุมานที่รวดเร็วและคุ้มค่าผ่าน API ที่มีการจัดการอย่างสมบูรณ์สำหรับงาน AI ที่ซับซ้อนและมีหลายขั้นตอน"
  • question: "ความร่วมมือนี้จัดการกับประสิทธิภาพการใช้พลังงานและความยั่งยืนใน AI ได้อย่างไร?" answer: "ความร่วมมือนี้ตระหนักถึงความสำคัญที่เพิ่มขึ้นของประสิทธิภาพการใช้พลังงานในขณะที่เวิร์กโหลด AI เพิ่มขึ้น ประสิทธิภาพต่อวัตต์ถูกเน้นย้ำไม่เพียงแค่เป็นตัวชี้วัดความยั่งยืนเท่านั้น แต่ยังเป็นความได้เปรียบในการแข่งขัน บทความชี้ไปที่การประชุม NVIDIA GTC ที่ผู้นำด้านความยั่งยืน รวมถึง Kara Hurst ประธานเจ้าหน้าที่ฝ่ายความยั่งยืนของ Amazon ได้หารือว่า AI กำลังเปลี่ยนแปลงพลังงานและโครงสร้างพื้นฐานขององค์กรในวงกว้างอย่างไร โดยเน้นย้ำถึงความพยายามในการใช้แนวทาง AI ที่ยั่งยืนมากขึ้น ตั้งแต่ศูนย์ข้อมูลไปจนถึงแอปพลิเคชัน AI สำหรับองค์กรในวงกว้าง"

AWS, NVIDIA กระชับความร่วมมือด้าน AI เพื่อเร่งการเปลี่ยนผ่านจากระยะนำร่องสู่การใช้งานจริง

AI กำลังเปลี่ยนแปลงอุตสาหกรรมในอัตราที่ไม่เคยมีมาก่อน แต่คุณค่าที่แท้จริงไม่ได้อยู่ที่การทดลองเท่านั้น แต่อยู่ที่การนำโซลูชัน AI ไปปรับใช้และดำเนินการในสภาพแวดล้อมการผลิตได้อย่างประสบความสำเร็จ ซึ่งสิ่งนี้ต้องการระบบที่แข็งแกร่ง ปรับขนาดได้ ปลอดภัย และเป็นไปตามข้อกำหนด ซึ่งสามารถส่งมอบผลลัพธ์ทางธุรกิจที่เป็นรูปธรรม เพื่อตอบสนองความต้องการที่สำคัญนี้ AWS และ NVIDIA ได้ประกาศขยายความร่วมมือเชิงกลยุทธ์ครั้งสำคัญที่ NVIDIA GTC 2026 โดยเปิดเผยการผสานรวมเทคโนโลยีใหม่ ๆ ที่ออกแบบมาเพื่อตอบสนองความต้องการด้านการประมวลผล AI ที่เพิ่มขึ้น และผลักดันโซลูชัน AI สู่การใช้งานจริง

ความร่วมมือที่ลึกซึ้งยิ่งขึ้นนี้มุ่งเน้นที่การเร่งทุกด้านของวงจรชีวิต AI ตั้งแต่โครงสร้างพื้นฐานไปจนถึงการปรับใช้โมเดล การผสานรวมเหล่านี้ครอบคลุมพื้นที่สำคัญ รวมถึงการประมวลผลแบบเร่งความเร็ว เทคโนโลยีการเชื่อมต่อขั้นสูง และการปรับแต่งโมเดลและการอนุมานที่คล่องตัว การประกาศที่สำคัญได้แก่:

  • การปรับใช้ NVIDIA GPU กว่า 1 ล้านตัวทั่วทั้งภูมิภาค AWS เริ่มต้นในปี 2026
  • การรองรับ Amazon EC2 สำหรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs ทำให้ AWS เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่นำเสนอสิ่งนี้
  • การเร่งความเร็วการเชื่อมต่อสำหรับการอนุมาน Large Language Model (LLM) แบบกระจายส่วน โดยใช้ประโยชน์จาก NVIDIA NIXL บน AWS Elastic Fabric Adapter (EFA)
  • ประสิทธิภาพที่เร็วขึ้นถึง 3 เท่าอย่างเห็นได้ชัดสำหรับเวิร์กโหลด Apache Spark โดยใช้ Amazon EMR บน Amazon Elastic Kubernetes Service (Amazon EKS) ร่วมกับอินสแตนซ์ Amazon EC2 G7e ซึ่งขับเคลื่อนโดย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs
  • การรองรับโมเดล NVIDIA Nemotron ที่ขยายเพิ่มเติมบน Amazon Bedrock รวมถึง Reinforcement Fine-Tuning และโมเดล Nemotron 3 Super

การขยายโครงสร้างพื้นฐาน AI ด้วยพลัง NVIDIA GPU ที่ได้รับการปรับปรุง

รากฐานของ AI สมัยใหม่คือโครงสร้างพื้นฐานการประมวลผลอันทรงพลัง เริ่มต้นในปี 2026 AWS กำลังให้คำมั่นสัญญาที่ยิ่งใหญ่ต่อความก้าวหน้าของ AI โดยการเพิ่ม NVIDIA GPU กว่า 1 ล้านตัวเข้าสู่ภูมิภาคคลาวด์ทั่วโลก ซึ่งรวมถึงสถาปัตยกรรม GPU Blackwell และ Rubin เจเนอเรชันถัดไป เพื่อให้มั่นใจว่าลูกค้าจะสามารถเข้าถึงฮาร์ดแวร์ที่ทันสมัยที่สุดที่มีอยู่ AWS มีคอลเลกชันอินสแตนซ์ที่ใช้ NVIDIA GPU ที่กว้างขวางที่สุดในอุตสาหกรรมอยู่แล้ว ซึ่งรองรับเวิร์กโหลด AI/ML ที่หลากหลาย และการขยายตัวนี้ยิ่งตอกย้ำความเป็นผู้นำของ AWS

ความร่วมมืออันยาวนานนี้ ซึ่งมีมานานกว่า 15 ปี ยังขยายไปสู่พื้นที่โครงสร้างพื้นฐานที่สำคัญ เช่น เครือข่าย Spectrum เป้าหมายคือการจัดหาโครงสร้างพื้นฐานที่แข็งแกร่งสำหรับองค์กร สตาร์ทอัพ และนักวิจัยที่จำเป็นในการสร้างและขยาย ระบบ AI เชิงตัวแทน (Agentic AI)—AI ที่มีความสามารถในการให้เหตุผล วางแผน และดำเนินการได้อย่างอิสระในเวิร์กโฟลว์ที่ซับซ้อน

การแนะนำอินสแตนซ์ Amazon EC2 ใหม่และนวัตกรรมการเชื่อมต่อ

หนึ่งในจุดเด่นของความร่วมมือคืออินสแตนซ์ Amazon EC2 ที่กำลังจะมาถึง ซึ่งได้รับการเร่งความเร็วด้วย NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs AWS ภูมิใจที่เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่ประกาศรองรับ GPUs อันทรงพลังเหล่านี้ ทำให้สามารถเข้าถึงได้สำหรับงานที่ต้องการพลังประมวลผลสูงหลากหลายประเภท อินสแตนซ์เหล่านี้เหมาะอย่างยิ่งสำหรับการวิเคราะห์ข้อมูล, AI เชิงสนทนาที่ซับซ้อน, การสร้างเนื้อหาแบบไดนามิก, ระบบแนะนำขั้นสูง, การสตรีมวิดีโอคุณภาพสูง และเวิร์กโหลดกราฟิกที่ซับซ้อน

อินสแตนซ์ EC2 ใหม่เหล่านี้จะถูกสร้างขึ้นบน AWS Nitro System ที่แข็งแกร่ง Nitro System ด้วยการรวมกันอย่างเป็นเอกลักษณ์ของฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์น้ำหนักเบา ทำให้สามารถส่งมอบทรัพยากรการประมวลผลและหน่วยความจำเกือบทั้งหมดของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์โดยตรง การออกแบบนี้รับประกันการใช้ทรัพยากรและประสิทธิภาพที่เหนือกว่า ที่สำคัญคือ ฮาร์ดแวร์ ซอฟต์แวร์ และเฟิร์มแวร์เฉพาะของ Nitro System ได้รับการออกแบบมาเพื่อบังคับใช้ข้อจำกัดที่เข้มงวด ปกป้องเวิร์กโหลดและข้อมูล AI ที่ละเอียดอ่อนจากการเข้าถึงโดยไม่ได้รับอนุญาต แม้กระทั่งจากภายใน AWS ความสามารถในการอัปเดตเฟิร์มแวร์และการเพิ่มประสิทธิภาพในขณะที่ระบบทำงานอยู่ยังช่วยเพิ่มความปลอดภัยและความเสถียรที่จำเป็นสำหรับเวิร์กโหลด AI, การวิเคราะห์ และกราฟิกในระดับการผลิต

การเพิ่มประสิทธิภาพให้ดียิ่งขึ้น โดยเฉพาะสำหรับโมเดล AI ขนาดใหญ่ คือการเร่งความเร็วการเชื่อมต่อสำหรับการอนุมาน LLM แบบกระจายส่วน ในขณะที่ขนาดของโมเดลยังคงเติบโต ค่าใช้จ่ายในการสื่อสาร (communication overhead) ระหว่าง GPU หรืออินสแตนซ์ AWS Trainium อาจกลายเป็นคอขวดที่สำคัญ AWS ได้ประกาศรองรับ NVIDIA Inference Xfer Library (NIXL) ร่วมกับ AWS Elastic Fabric Adapter (EFA) ซึ่งออกแบบมาเพื่อเร่งการอนุมาน LLM แบบกระจายส่วนบน Amazon EC2 ครอบคลุมทั้ง NVIDIA GPUs และ AWS Trainium การผสานรวมนี้มีความสำคัญอย่างยิ่งต่อการขยายขนาดเวิร์กโหลด AI สมัยใหม่ ทำให้สามารถซ้อนทับการสื่อสารและการคำนวณได้อย่างมีประสิทธิภาพ ลดความหน่วง และเพิ่ม การใช้งาน GPU ให้สูงสุด ช่วยอำนวยความสะดวกในการเคลื่อนย้ายข้อมูล KV-cache ที่มีปริมาณงานสูงและมีความหน่วงต่ำระหว่างโหนดประมวลผลและทรัพยากรหน่วยความจำแบบกระจาย NIXL ร่วมกับ EFA ผสานรวมเข้ากับเฟรมเวิร์กโอเพนซอร์สยอดนิยม เช่น NVIDIA Dynamo, vLLM และ SGLang ได้อย่างราบรื่น โดยมอบความหน่วงระหว่างโทเค็นที่ดีขึ้นและการใช้หน่วยความจำ KV-cache ที่มีประสิทธิภาพมากขึ้น

เร่งการวิเคราะห์ข้อมูลด้วย Amazon EMR และ GPUs

วิศวกรข้อมูลและนักวิทยาศาสตร์มักเผชิญกับขั้นตอนการประมวลผลข้อมูลที่ใช้เวลานาน ซึ่งสามารถขัดขวางการวนซ้ำของโมเดล AI/ML และการสร้าง Business Intelligence ได้อย่างมาก ความร่วมมือระหว่าง AWS และ NVIDIA นำมาซึ่งการปรับปรุงที่ก้าวล้ำ: ประสิทธิภาพที่เร็วขึ้น 3 เท่าสำหรับเวิร์กโหลด Apache Spark การเร่งความเร็วนี้ทำได้โดยการใช้ประโยชน์จาก Amazon EMR บน Amazon EKS ร่วมกับอินสแตนซ์ G7e ซึ่งขับเคลื่อนโดย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs

ประสิทธิภาพที่เพิ่มขึ้นอย่างมากนี้เป็นผลโดยตรงจากความพยายามด้านวิศวกรรมร่วมกันที่มุ่งเน้นการเพิ่มประสิทธิภาพการวิเคราะห์ที่เร่งความเร็วด้วย GPU ด้วย Amazon EMR และอินสแตนซ์ G7e องค์กรสามารถลดเวลาที่จำเป็นสำหรับการทำวิศวกรรมคุณสมบัติ AI/ML การแปลง ETL ที่ซับซ้อน และการวิเคราะห์แบบเรียลไทม์ในขนาดที่ใหญ่ได้อย่างมาก ลูกค้าที่รันไปป์ไลน์การประมวลผลข้อมูลขนาดใหญ่สามารถรับข้อมูลเชิงลึกได้เร็วขึ้น โดยยังคงความเข้ากันได้กับแอปพลิเคชัน Spark ที่มีอยู่เดิม

การขยายการรองรับโมเดล NVIDIA Nemotron บน Amazon Bedrock

AWS และ NVIDIA ยังขยายความร่วมมือในด้านโมเดลพื้นฐาน โดยนำโมเดล NVIDIA Nemotron ขั้นสูงมาสู่ Amazon Bedrock

ในไม่ช้า นักพัฒนาจะมีความสามารถในการปรับแต่งโมเดล NVIDIA Nemotron โดยตรงบน Amazon Bedrock โดยใช้ Reinforcement Fine-Tuning (RFT) นี่คือการเปลี่ยนแปลงครั้งสำคัญสำหรับทีมที่ต้องการปรับแต่งพฤติกรรมของโมเดลให้เข้ากับโดเมนเฉพาะ ไม่ว่าจะเป็นในด้านกฎหมาย การดูแลสุขภาพ การเงิน หรือสาขาเฉพาะทางอื่น ๆ RFT ช่วยให้ผู้ใช้สามารถกำหนดวิธีที่โมเดลให้เหตุผลและตอบสนอง ก้าวข้ามการเพียงแค่การได้รับความรู้ไปสู่การปรับพฤติกรรมที่ละเอียดอ่อน ที่สำคัญคือสิ่งนี้ทำงานบน Amazon Bedrock โดยตรง ช่วยลดภาระด้านโครงสร้างพื้นฐาน – ผู้ใช้กำหนดงาน ให้ข้อเสนอแนะ และ Bedrock จะจัดการส่วนที่เหลือเอง

นอกจากนี้ NVIDIA Nemotron 3 Super ซึ่งเป็นโมเดล Mixture-of-Experts (MoE) แบบไฮบริดที่สร้างขึ้นสำหรับเวิร์กโหลดแบบหลายตัวแทน (multi-agent) และการให้เหตุผลที่ซับซ้อน ก็กำลังจะมาถึง Amazon Bedrock ในเร็ว ๆ นี้เช่นกัน ออกแบบมาเพื่อช่วยให้ตัวแทน AI รักษาความแม่นยำในเวิร์กโฟลว์ที่ซับซ้อนและมีหลายขั้นตอน Nemotron 3 Super จะขับเคลื่อนกรณีการใช้งานที่หลากหลาย ครอบคลุมด้านการเงิน ความปลอดภัยทางไซเบอร์ การค้าปลีก และการพัฒนาซอฟต์แวร์ โดยจะให้การอนุมานที่รวดเร็วและคุ้มค่าผ่าน API ที่มีการจัดการอย่างสมบูรณ์ ทำให้การปรับใช้ตัวแทน AI ที่ซับซ้อนง่ายขึ้น

นี่คือสรุปของการประกาศที่สำคัญ:

คุณสมบัติ/การผสานรวมคำอธิบายประโยชน์หลักความพร้อมใช้งาน
การปรับใช้ GPUNVIDIA GPUs กว่า 1 ล้านตัว (สถาปัตยกรรม Blackwell, Rubin) ทั่วภูมิภาค AWSขนาดการประมวลผลมหาศาลสำหรับเวิร์กโหลด AI/ML ทั้งหมด, AI เชิงตัวแทนเริ่มปี 2026
อินสแตนซ์ Amazon EC2การรองรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs บน EC2ผู้ให้บริการคลาวด์รายใหญ่รายแรกที่รองรับ AI, กราฟิก, การวิเคราะห์ที่หลากหลายเร็ว ๆ นี้
การอนุมาน LLMNVIDIA NIXL บน AWS EFA สำหรับการอนุมาน LLM แบบกระจายส่วนที่เร่งความเร็วบน GPUs และ Trainiumลดความหน่วงในการสื่อสาร, เพิ่มการใช้งาน GPU สำหรับ LLMs ให้สูงสุดประกาศแล้ว
ประสิทธิภาพ Apache Sparkเวิร์กโหลด Spark เร็วขึ้น 3 เท่าบน Amazon EMR บน EKS ด้วยอินสแตนซ์ G7e (RTX PRO 6000)เร่งเวลาในการรับข้อมูลเชิงลึกสำหรับการวิเคราะห์ข้อมูล, วิศวกรรมคุณสมบัติประกาศแล้ว
การปรับแต่ง NemotronReinforcement Fine-Tuning (RFT) สำหรับโมเดล Nemotron โดยตรงบน Amazon Bedrockการปรับพฤติกรรมโมเดลให้เข้ากับโดเมนเฉพาะโดยไม่มีภาระด้านโครงสร้างพื้นฐานเร็ว ๆ นี้
Nemotron 3 Superโมเดล MoE แบบไฮบริดสำหรับเวิร์กโหลดแบบหลายตัวแทนและการให้เหตุผลที่ซับซ้อนบน Amazon Bedrockการอนุมานที่รวดเร็วและคุ้มค่าสำหรับงาน AI ที่ซับซ้อนและมีหลายขั้นตอนเร็ว ๆ นี้

ความมุ่งมั่นต่อประสิทธิภาพการใช้พลังงานและ AI ที่ยั่งยืน

ในขณะที่เวิร์กโหลด AI ยังคงเติบโตแบบทวีคูณ ประสิทธิภาพและความยั่งยืนของโครงสร้างพื้นฐานที่รองรับจึงกลายเป็นสิ่งสำคัญยิ่ง ความร่วมมือนี้ยังเน้นย้ำถึงความมุ่งมั่นร่วมกันในการปรับปรุงประสิทธิภาพการใช้พลังงาน ประสิทธิภาพต่อวัตต์ไม่เป็นเพียงตัวชี้วัดความยั่งยืนอีกต่อไป แต่เป็นความได้เปรียบในการแข่งขันที่สำคัญในภูมิทัศน์ของ AI

ที่ NVIDIA GTC 2026, Kara Hurst ประธานเจ้าหน้าที่ฝ่ายความยั่งยืนของ Amazon ได้เข้าร่วมกับผู้นำด้านความยั่งยืนคนอื่นๆ เพื่อหารือว่า AI กำลังเปลี่ยนแปลงพลังงานและโครงสร้างพื้นฐานขององค์กรในวงกว้างอย่างไร การอภิปรายนี้เน้นย้ำถึงการมุ่งเน้นในการพัฒนาและปรับใช้โซลูชัน AI ที่ไม่เพียงแต่ทรงพลังเท่านั้น แต่ยังรับผิดชอบต่อสิ่งแวดล้อมด้วย ตั้งแต่ศูนย์ข้อมูลที่ได้รับการปรับปรุงให้เป็นผู้เข้าร่วมกริดเชิงรุกไปจนถึงแอปพลิเคชัน AI สำหรับองค์กรในวงกว้าง

คำถามที่พบบ่อย

What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
The collaboration aims to accelerate the transition of AI solutions from experimental phases to full-scale production environments. This involves integrating new technologies and expanding existing capabilities across accelerated computing, interconnect technologies, model fine-tuning, and inference. The focus is on enabling customers to build and run AI solutions that are reliable, performant at scale, and compliant with enterprise security and regulatory requirements, ultimately driving meaningful business outcomes through production-ready AI systems.
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
Starting in 2026, AWS plans to deploy over 1 million NVIDIA GPUs, including the next-generation Blackwell and Rubin architectures, across its global cloud regions. This massive expansion solidifies AWS's position as a leading provider of NVIDIA GPU-based instances, offering the broadest collection for diverse AI/ML workloads. This enhanced capacity is crucial for supporting the surging demand for AI compute, particularly for complex agentic AI systems that require extensive computational power.
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
AWS is the first major cloud provider to support the NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs on Amazon EC2 instances. These instances are highly versatile, suitable for a broad spectrum of workloads such as data analytics, conversational AI, content generation, recommender systems, video streaming, and advanced graphics rendering. Built on the AWS Nitro System, they offer enhanced resource efficiency, robust security, and stability, delivering superior performance for demanding AI and graphics applications.
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
The integration of NVIDIA Inference Xfer Library (NIXL) with AWS Elastic Fabric Adapter (EFA) is designed to accelerate disaggregated LLM inference on Amazon EC2 across both NVIDIA GPUs and AWS Trainium instances. This is critical for managing the communication overhead in large models, enabling efficient overlap of communication and computation, minimizing latency, and maximizing GPU utilization. It facilitates high-throughput, low-latency KV-cache data movement and integrates natively with popular open-source frameworks like NVIDIA Dynamo, vLLM, and SGLang.
What improvements are being made to Apache Spark performance for data analytics?
AWS and NVIDIA's joint engineering efforts have resulted in a 3x faster performance for Apache Spark workloads. This is achieved by combining Amazon EMR on Amazon EKS with G7e instances, powered by NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. This significant speedup allows data engineers and scientists to accelerate time-to-insight for critical tasks such as AI/ML feature engineering, complex ETL transformations, and real-time analytics, maintaining full compatibility with existing Spark applications.
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
Amazon Bedrock will soon support fine-tuning NVIDIA Nemotron models directly using Reinforcement Fine-Tuning (RFT). This capability allows developers to precisely align model behavior to specific domains like legal, healthcare, or finance without infrastructure overhead. Additionally, NVIDIA Nemotron 3 Super, a hybrid Mixture-of-Experts (MoE) model optimized for multi-agent workloads and extended reasoning, will also be available on Amazon Bedrock, providing fast, cost-efficient inference via a fully managed API for complex, multi-step AI tasks.
How does this collaboration address energy efficiency and sustainability in AI?
The collaboration acknowledges the growing importance of energy efficiency as AI workloads scale. Performance per watt is highlighted not just as a sustainability metric but as a competitive advantage. The article points to an NVIDIA GTC session where sustainability leaders, including Amazon CSO Kara Hurst, discuss how AI is transforming enterprise energy and infrastructure, emphasizing efforts towards more sustainable AI practices from data centers to broader enterprise AI applications.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์