title: "AWS, NVIDIA กระชับความร่วมมือด้าน AI เพื่อเร่งการนำไปใช้งานจริง" slug: "aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production" date: "2026-03-18" lang: "th" source: "https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production/" category: "AI สำหรับองค์กร" keywords:
- AWS
- NVIDIA
- การเร่งความเร็ว AI
- GTC 2026
- GPU
- Amazon EC2
- Amazon Bedrock
- Nemotron
- การอนุมาน LLM
- EFA
- Apache Spark
- AI สำหรับองค์กร
- AI สำหรับการใช้งานจริง
- การเรียนรู้ของเครื่อง meta_description: "AWS และ NVIDIA กระชับความร่วมมือเชิงกลยุทธ์ที่ GTC 2026 โดยประกาศการผสานรวมที่สำคัญเพื่อเร่งการนำ AI จากระยะนำร่องสู่การใช้งานจริง รวมถึงการปรับใช้ GPU ที่ขยายตัว อินสแตนซ์ EC2 ใหม่ และการรองรับโมเดล Nemotron บน Amazon Bedrock" image: "/images/articles/aws-and-nvidia-deepen-strategic-collaboration-to-accelerate-ai-from-pilot-to-production.png" image_alt: "โลโก้ AWS และ NVIDIA แสดงอย่างโดดเด่น เป็นสัญลักษณ์ของความร่วมมือเชิงกลยุทธ์ที่ขยายตัวเพื่อเร่งความเร็วและนวัตกรรม AI" quality_score: 94 content_score: 93 seo_score: 95 companies:
- AWS
- NVIDIA schema_type: "NewsArticle" reading_time: 5 faq:
- question: "เป้าหมายหลักของการขยายความร่วมมือเชิงกลยุทธ์ระหว่าง AWS และ NVIDIA คืออะไร?" answer: "ความร่วมมือนี้มีเป้าหมายเพื่อเร่งการเปลี่ยนผ่านของโซลูชัน AI จากระยะทดลองไปสู่สภาพแวดล้อมการผลิตเต็มรูปแบบ ซึ่งเกี่ยวข้องกับการผสานรวมเทคโนโลยีใหม่ ๆ และการขยายขีดความสามารถที่มีอยู่ทั่วทั้งการประมวลผลแบบเร่งความเร็ว เทคโนโลยีการเชื่อมต่อ การปรับแต่งโมเดล และการอนุมาน โดยมุ่งเน้นที่การช่วยให้ลูกค้าสามารถสร้างและรันโซลูชัน AI ที่เชื่อถือได้ มีประสิทธิภาพในขนาดที่ใหญ่ และเป็นไปตามข้อกำหนดด้านความปลอดภัยและกฎระเบียบขององค์กร ซึ่งท้ายที่สุดแล้วจะขับเคลื่อนผลลัพธ์ทางธุรกิจที่มีความหมายผ่านระบบ AI ที่พร้อมใช้งานจริง"
- question: "AWS มีแผนขยายโครงสร้างพื้นฐาน GPU ที่สำคัญอย่างไรในความร่วมมือนี้?" answer: "เริ่มต้นในปี 2026 AWS วางแผนที่จะปรับใช้ NVIDIA GPU กว่า 1 ล้านตัว รวมถึงสถาปัตยกรรม Blackwell และ Rubin เจเนอเรชันถัดไป ทั่วทั้งภูมิภาคคลาวด์ทั่วโลก การขยายขนาดมหาศาลนี้ตอกย้ำตำแหน่งของ AWS ในฐานะผู้ให้บริการอินสแตนซ์ที่ใช้ NVIDIA GPU ชั้นนำ โดยนำเสนอคอลเลกชันที่กว้างขวางที่สุดสำหรับเวิร์กโหลด AI/ML ที่หลากหลาย กำลังการผลิตที่เพิ่มขึ้นนี้มีความสำคัญอย่างยิ่งต่อการรองรับความต้องการด้านการประมวลผล AI ที่พุ่งสูงขึ้น โดยเฉพาะอย่างยิ่งสำหรับระบบ AI เชิงตัวแทน (agentic AI) ที่ซับซ้อนซึ่งต้องใช้พลังงานการประมวลผลจำนวนมาก"
- question: "อินสแตนซ์ Amazon EC2 ใหม่ที่ใช้ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs จะเป็นประโยชน์ต่อผู้ใช้อย่างไร?" answer: "AWS เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่รองรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs บนอินสแตนซ์ Amazon EC2 อินสแตนซ์เหล่านี้มีความอเนกประสงค์สูง เหมาะสำหรับเวิร์กโหลดที่หลากหลาย เช่น การวิเคราะห์ข้อมูล, AI เชิงสนทนา, การสร้างเนื้อหา, ระบบแนะนำ, การสตรีมวิดีโอ และการเรนเดอร์กราฟิกขั้นสูง สร้างขึ้นบน AWS Nitro System ทำให้มีประสิทธิภาพการใช้ทรัพยากรที่เพิ่มขึ้น ความปลอดภัยที่แข็งแกร่ง และความเสถียร มอบประสิทธิภาพที่เหนือกว่าสำหรับแอปพลิเคชัน AI และกราฟิกที่ต้องการพลังประมวลผลสูง"
- question: "การผสานรวม NVIDIA NIXL กับ AWS EFA ช่วยเพิ่มประสิทธิภาพการอนุมาน Large Language Model (LLM) ได้อย่างไร?" answer: "การผสานรวม NVIDIA Inference Xfer Library (NIXL) กับ AWS Elastic Fabric Adapter (EFA) ได้รับการออกแบบมาเพื่อเร่งการอนุมาน LLM แบบกระจายส่วน (disaggregated) บน Amazon EC2 ทั้งบน NVIDIA GPUs และอินสแตนซ์ AWS Trainium ซึ่งสิ่งนี้มีความสำคัญอย่างยิ่งต่อการจัดการค่าใช้จ่ายในการสื่อสาร (communication overhead) ในโมเดลขนาดใหญ่ ทำให้สามารถซ้อนทับการสื่อสารและการคำนวณได้อย่างมีประสิทธิภาพ ลดความหน่วง และเพิ่มการใช้งาน GPU ให้สูงสุด ช่วยอำนวยความสะดวกในการเคลื่อนย้ายข้อมูล KV-cache ที่มีปริมาณงานสูงและมีความหน่วงต่ำ และผสานรวมเข้ากับเฟรมเวิร์กโอเพนซอร์สยอดนิยมอย่าง NVIDIA Dynamo, vLLM และ SGLang ได้อย่างราบรื่น"
- question: "มีการปรับปรุงประสิทธิภาพ Apache Spark สำหรับการวิเคราะห์ข้อมูลอย่างไรบ้าง?" answer: "ความพยายามด้านวิศวกรรมร่วมกันของ AWS และ NVIDIA ส่งผลให้ประสิทธิภาพสำหรับเวิร์กโหลด Apache Spark เร็วขึ้น 3 เท่า สิ่งนี้ทำได้โดยการรวม Amazon EMR บน Amazon EKS เข้ากับอินสแตนซ์ G7e ซึ่งขับเคลื่อนด้วย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs การเร่งความเร็วที่สำคัญนี้ช่วยให้วิศวกรข้อมูลและนักวิทยาศาสตร์สามารถเร่งเวลาในการรับข้อมูลเชิงลึกสำหรับงานสำคัญ เช่น การทำวิศวกรรมคุณสมบัติ AI/ML การแปลง ETL ที่ซับซ้อน และการวิเคราะห์แบบเรียลไทม์ โดยยังคงความเข้ากันได้กับแอปพลิเคชัน Spark ที่มีอยู่เดิม"
- question: "การรองรับโมเดล NVIDIA Nemotron ที่ขยายเพิ่มขึ้นบน Amazon Bedrock มีอะไรบ้าง?" answer: "Amazon Bedrock จะรองรับการปรับแต่งโมเดล NVIDIA Nemotron โดยตรงโดยใช้ Reinforcement Fine-Tuning (RFT) ในเร็ว ๆ นี้ ความสามารถนี้ช่วยให้นักพัฒนาสามารถปรับพฤติกรรมของโมเดลให้สอดคล้องกับโดเมนเฉพาะได้อย่างแม่นยำ เช่น กฎหมาย การดูแลสุขภาพ หรือการเงิน โดยไม่มีภาระด้านโครงสร้างพื้นฐาน นอกจากนี้ NVIDIA Nemotron 3 Super ซึ่งเป็นโมเดล Mixture-of-Experts (MoE) แบบไฮบริดที่ปรับให้เหมาะสมสำหรับเวิร์กโหลดแบบหลายตัวแทน (multi-agent) และการให้เหตุผลที่ซับซ้อน จะพร้อมใช้งานบน Amazon Bedrock ด้วย โดยจะให้การอนุมานที่รวดเร็วและคุ้มค่าผ่าน API ที่มีการจัดการอย่างสมบูรณ์สำหรับงาน AI ที่ซับซ้อนและมีหลายขั้นตอน"
- question: "ความร่วมมือนี้จัดการกับประสิทธิภาพการใช้พลังงานและความยั่งยืนใน AI ได้อย่างไร?" answer: "ความร่วมมือนี้ตระหนักถึงความสำคัญที่เพิ่มขึ้นของประสิทธิภาพการใช้พลังงานในขณะที่เวิร์กโหลด AI เพิ่มขึ้น ประสิทธิภาพต่อวัตต์ถูกเน้นย้ำไม่เพียงแค่เป็นตัวชี้วัดความยั่งยืนเท่านั้น แต่ยังเป็นความได้เปรียบในการแข่งขัน บทความชี้ไปที่การประชุม NVIDIA GTC ที่ผู้นำด้านความยั่งยืน รวมถึง Kara Hurst ประธานเจ้าหน้าที่ฝ่ายความยั่งยืนของ Amazon ได้หารือว่า AI กำลังเปลี่ยนแปลงพลังงานและโครงสร้างพื้นฐานขององค์กรในวงกว้างอย่างไร โดยเน้นย้ำถึงความพยายามในการใช้แนวทาง AI ที่ยั่งยืนมากขึ้น ตั้งแต่ศูนย์ข้อมูลไปจนถึงแอปพลิเคชัน AI สำหรับองค์กรในวงกว้าง"
AWS, NVIDIA กระชับความร่วมมือด้าน AI เพื่อเร่งการเปลี่ยนผ่านจากระยะนำร่องสู่การใช้งานจริง
AI กำลังเปลี่ยนแปลงอุตสาหกรรมในอัตราที่ไม่เคยมีมาก่อน แต่คุณค่าที่แท้จริงไม่ได้อยู่ที่การทดลองเท่านั้น แต่อยู่ที่การนำโซลูชัน AI ไปปรับใช้และดำเนินการในสภาพแวดล้อมการผลิตได้อย่างประสบความสำเร็จ ซึ่งสิ่งนี้ต้องการระบบที่แข็งแกร่ง ปรับขนาดได้ ปลอดภัย และเป็นไปตามข้อกำหนด ซึ่งสามารถส่งมอบผลลัพธ์ทางธุรกิจที่เป็นรูปธรรม เพื่อตอบสนองความต้องการที่สำคัญนี้ AWS และ NVIDIA ได้ประกาศขยายความร่วมมือเชิงกลยุทธ์ครั้งสำคัญที่ NVIDIA GTC 2026 โดยเปิดเผยการผสานรวมเทคโนโลยีใหม่ ๆ ที่ออกแบบมาเพื่อตอบสนองความต้องการด้านการประมวลผล AI ที่เพิ่มขึ้น และผลักดันโซลูชัน AI สู่การใช้งานจริง
ความร่วมมือที่ลึกซึ้งยิ่งขึ้นนี้มุ่งเน้นที่การเร่งทุกด้านของวงจรชีวิต AI ตั้งแต่โครงสร้างพื้นฐานไปจนถึงการปรับใช้โมเดล การผสานรวมเหล่านี้ครอบคลุมพื้นที่สำคัญ รวมถึงการประมวลผลแบบเร่งความเร็ว เทคโนโลยีการเชื่อมต่อขั้นสูง และการปรับแต่งโมเดลและการอนุมานที่คล่องตัว การประกาศที่สำคัญได้แก่:
- การปรับใช้ NVIDIA GPU กว่า 1 ล้านตัวทั่วทั้งภูมิภาค AWS เริ่มต้นในปี 2026
- การรองรับ Amazon EC2 สำหรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs ทำให้ AWS เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่นำเสนอสิ่งนี้
- การเร่งความเร็วการเชื่อมต่อสำหรับการอนุมาน Large Language Model (LLM) แบบกระจายส่วน โดยใช้ประโยชน์จาก NVIDIA NIXL บน AWS Elastic Fabric Adapter (EFA)
- ประสิทธิภาพที่เร็วขึ้นถึง 3 เท่าอย่างเห็นได้ชัดสำหรับเวิร์กโหลด Apache Spark โดยใช้ Amazon EMR บน Amazon Elastic Kubernetes Service (Amazon EKS) ร่วมกับอินสแตนซ์ Amazon EC2 G7e ซึ่งขับเคลื่อนโดย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs
- การรองรับโมเดล NVIDIA Nemotron ที่ขยายเพิ่มเติมบน Amazon Bedrock รวมถึง Reinforcement Fine-Tuning และโมเดล Nemotron 3 Super
การขยายโครงสร้างพื้นฐาน AI ด้วยพลัง NVIDIA GPU ที่ได้รับการปรับปรุง
รากฐานของ AI สมัยใหม่คือโครงสร้างพื้นฐานการประมวลผลอันทรงพลัง เริ่มต้นในปี 2026 AWS กำลังให้คำมั่นสัญญาที่ยิ่งใหญ่ต่อความก้าวหน้าของ AI โดยการเพิ่ม NVIDIA GPU กว่า 1 ล้านตัวเข้าสู่ภูมิภาคคลาวด์ทั่วโลก ซึ่งรวมถึงสถาปัตยกรรม GPU Blackwell และ Rubin เจเนอเรชันถัดไป เพื่อให้มั่นใจว่าลูกค้าจะสามารถเข้าถึงฮาร์ดแวร์ที่ทันสมัยที่สุดที่มีอยู่ AWS มีคอลเลกชันอินสแตนซ์ที่ใช้ NVIDIA GPU ที่กว้างขวางที่สุดในอุตสาหกรรมอยู่แล้ว ซึ่งรองรับเวิร์กโหลด AI/ML ที่หลากหลาย และการขยายตัวนี้ยิ่งตอกย้ำความเป็นผู้นำของ AWS
ความร่วมมืออันยาวนานนี้ ซึ่งมีมานานกว่า 15 ปี ยังขยายไปสู่พื้นที่โครงสร้างพื้นฐานที่สำคัญ เช่น เครือข่าย Spectrum เป้าหมายคือการจัดหาโครงสร้างพื้นฐานที่แข็งแกร่งสำหรับองค์กร สตาร์ทอัพ และนักวิจัยที่จำเป็นในการสร้างและขยาย ระบบ AI เชิงตัวแทน (Agentic AI)—AI ที่มีความสามารถในการให้เหตุผล วางแผน และดำเนินการได้อย่างอิสระในเวิร์กโฟลว์ที่ซับซ้อน
การแนะนำอินสแตนซ์ Amazon EC2 ใหม่และนวัตกรรมการเชื่อมต่อ
หนึ่งในจุดเด่นของความร่วมมือคืออินสแตนซ์ Amazon EC2 ที่กำลังจะมาถึง ซึ่งได้รับการเร่งความเร็วด้วย NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs AWS ภูมิใจที่เป็นผู้ให้บริการคลาวด์รายใหญ่รายแรกที่ประกาศรองรับ GPUs อันทรงพลังเหล่านี้ ทำให้สามารถเข้าถึงได้สำหรับงานที่ต้องการพลังประมวลผลสูงหลากหลายประเภท อินสแตนซ์เหล่านี้เหมาะอย่างยิ่งสำหรับการวิเคราะห์ข้อมูล, AI เชิงสนทนาที่ซับซ้อน, การสร้างเนื้อหาแบบไดนามิก, ระบบแนะนำขั้นสูง, การสตรีมวิดีโอคุณภาพสูง และเวิร์กโหลดกราฟิกที่ซับซ้อน
อินสแตนซ์ EC2 ใหม่เหล่านี้จะถูกสร้างขึ้นบน AWS Nitro System ที่แข็งแกร่ง Nitro System ด้วยการรวมกันอย่างเป็นเอกลักษณ์ของฮาร์ดแวร์เฉพาะและไฮเปอร์ไวเซอร์น้ำหนักเบา ทำให้สามารถส่งมอบทรัพยากรการประมวลผลและหน่วยความจำเกือบทั้งหมดของฮาร์ดแวร์โฮสต์ไปยังอินสแตนซ์โดยตรง การออกแบบนี้รับประกันการใช้ทรัพยากรและประสิทธิภาพที่เหนือกว่า ที่สำคัญคือ ฮาร์ดแวร์ ซอฟต์แวร์ และเฟิร์มแวร์เฉพาะของ Nitro System ได้รับการออกแบบมาเพื่อบังคับใช้ข้อจำกัดที่เข้มงวด ปกป้องเวิร์กโหลดและข้อมูล AI ที่ละเอียดอ่อนจากการเข้าถึงโดยไม่ได้รับอนุญาต แม้กระทั่งจากภายใน AWS ความสามารถในการอัปเดตเฟิร์มแวร์และการเพิ่มประสิทธิภาพในขณะที่ระบบทำงานอยู่ยังช่วยเพิ่มความปลอดภัยและความเสถียรที่จำเป็นสำหรับเวิร์กโหลด AI, การวิเคราะห์ และกราฟิกในระดับการผลิต
การเพิ่มประสิทธิภาพให้ดียิ่งขึ้น โดยเฉพาะสำหรับโมเดล AI ขนาดใหญ่ คือการเร่งความเร็วการเชื่อมต่อสำหรับการอนุมาน LLM แบบกระจายส่วน ในขณะที่ขนาดของโมเดลยังคงเติบโต ค่าใช้จ่ายในการสื่อสาร (communication overhead) ระหว่าง GPU หรืออินสแตนซ์ AWS Trainium อาจกลายเป็นคอขวดที่สำคัญ AWS ได้ประกาศรองรับ NVIDIA Inference Xfer Library (NIXL) ร่วมกับ AWS Elastic Fabric Adapter (EFA) ซึ่งออกแบบมาเพื่อเร่งการอนุมาน LLM แบบกระจายส่วนบน Amazon EC2 ครอบคลุมทั้ง NVIDIA GPUs และ AWS Trainium การผสานรวมนี้มีความสำคัญอย่างยิ่งต่อการขยายขนาดเวิร์กโหลด AI สมัยใหม่ ทำให้สามารถซ้อนทับการสื่อสารและการคำนวณได้อย่างมีประสิทธิภาพ ลดความหน่วง และเพิ่ม การใช้งาน GPU ให้สูงสุด ช่วยอำนวยความสะดวกในการเคลื่อนย้ายข้อมูล KV-cache ที่มีปริมาณงานสูงและมีความหน่วงต่ำระหว่างโหนดประมวลผลและทรัพยากรหน่วยความจำแบบกระจาย NIXL ร่วมกับ EFA ผสานรวมเข้ากับเฟรมเวิร์กโอเพนซอร์สยอดนิยม เช่น NVIDIA Dynamo, vLLM และ SGLang ได้อย่างราบรื่น โดยมอบความหน่วงระหว่างโทเค็นที่ดีขึ้นและการใช้หน่วยความจำ KV-cache ที่มีประสิทธิภาพมากขึ้น
เร่งการวิเคราะห์ข้อมูลด้วย Amazon EMR และ GPUs
วิศวกรข้อมูลและนักวิทยาศาสตร์มักเผชิญกับขั้นตอนการประมวลผลข้อมูลที่ใช้เวลานาน ซึ่งสามารถขัดขวางการวนซ้ำของโมเดล AI/ML และการสร้าง Business Intelligence ได้อย่างมาก ความร่วมมือระหว่าง AWS และ NVIDIA นำมาซึ่งการปรับปรุงที่ก้าวล้ำ: ประสิทธิภาพที่เร็วขึ้น 3 เท่าสำหรับเวิร์กโหลด Apache Spark การเร่งความเร็วนี้ทำได้โดยการใช้ประโยชน์จาก Amazon EMR บน Amazon EKS ร่วมกับอินสแตนซ์ G7e ซึ่งขับเคลื่อนโดย NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs
ประสิทธิภาพที่เพิ่มขึ้นอย่างมากนี้เป็นผลโดยตรงจากความพยายามด้านวิศวกรรมร่วมกันที่มุ่งเน้นการเพิ่มประสิทธิภาพการวิเคราะห์ที่เร่งความเร็วด้วย GPU ด้วย Amazon EMR และอินสแตนซ์ G7e องค์กรสามารถลดเวลาที่จำเป็นสำหรับการทำวิศวกรรมคุณสมบัติ AI/ML การแปลง ETL ที่ซับซ้อน และการวิเคราะห์แบบเรียลไทม์ในขนาดที่ใหญ่ได้อย่างมาก ลูกค้าที่รันไปป์ไลน์การประมวลผลข้อมูลขนาดใหญ่สามารถรับข้อมูลเชิงลึกได้เร็วขึ้น โดยยังคงความเข้ากันได้กับแอปพลิเคชัน Spark ที่มีอยู่เดิม
การขยายการรองรับโมเดล NVIDIA Nemotron บน Amazon Bedrock
AWS และ NVIDIA ยังขยายความร่วมมือในด้านโมเดลพื้นฐาน โดยนำโมเดล NVIDIA Nemotron ขั้นสูงมาสู่ Amazon Bedrock
ในไม่ช้า นักพัฒนาจะมีความสามารถในการปรับแต่งโมเดล NVIDIA Nemotron โดยตรงบน Amazon Bedrock โดยใช้ Reinforcement Fine-Tuning (RFT) นี่คือการเปลี่ยนแปลงครั้งสำคัญสำหรับทีมที่ต้องการปรับแต่งพฤติกรรมของโมเดลให้เข้ากับโดเมนเฉพาะ ไม่ว่าจะเป็นในด้านกฎหมาย การดูแลสุขภาพ การเงิน หรือสาขาเฉพาะทางอื่น ๆ RFT ช่วยให้ผู้ใช้สามารถกำหนดวิธีที่โมเดลให้เหตุผลและตอบสนอง ก้าวข้ามการเพียงแค่การได้รับความรู้ไปสู่การปรับพฤติกรรมที่ละเอียดอ่อน ที่สำคัญคือสิ่งนี้ทำงานบน Amazon Bedrock โดยตรง ช่วยลดภาระด้านโครงสร้างพื้นฐาน – ผู้ใช้กำหนดงาน ให้ข้อเสนอแนะ และ Bedrock จะจัดการส่วนที่เหลือเอง
นอกจากนี้ NVIDIA Nemotron 3 Super ซึ่งเป็นโมเดล Mixture-of-Experts (MoE) แบบไฮบริดที่สร้างขึ้นสำหรับเวิร์กโหลดแบบหลายตัวแทน (multi-agent) และการให้เหตุผลที่ซับซ้อน ก็กำลังจะมาถึง Amazon Bedrock ในเร็ว ๆ นี้เช่นกัน ออกแบบมาเพื่อช่วยให้ตัวแทน AI รักษาความแม่นยำในเวิร์กโฟลว์ที่ซับซ้อนและมีหลายขั้นตอน Nemotron 3 Super จะขับเคลื่อนกรณีการใช้งานที่หลากหลาย ครอบคลุมด้านการเงิน ความปลอดภัยทางไซเบอร์ การค้าปลีก และการพัฒนาซอฟต์แวร์ โดยจะให้การอนุมานที่รวดเร็วและคุ้มค่าผ่าน API ที่มีการจัดการอย่างสมบูรณ์ ทำให้การปรับใช้ตัวแทน AI ที่ซับซ้อนง่ายขึ้น
นี่คือสรุปของการประกาศที่สำคัญ:
| คุณสมบัติ/การผสานรวม | คำอธิบาย | ประโยชน์หลัก | ความพร้อมใช้งาน |
|---|---|---|---|
| การปรับใช้ GPU | NVIDIA GPUs กว่า 1 ล้านตัว (สถาปัตยกรรม Blackwell, Rubin) ทั่วภูมิภาค AWS | ขนาดการประมวลผลมหาศาลสำหรับเวิร์กโหลด AI/ML ทั้งหมด, AI เชิงตัวแทน | เริ่มปี 2026 |
| อินสแตนซ์ Amazon EC2 | การรองรับ NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs บน EC2 | ผู้ให้บริการคลาวด์รายใหญ่รายแรกที่รองรับ AI, กราฟิก, การวิเคราะห์ที่หลากหลาย | เร็ว ๆ นี้ |
| การอนุมาน LLM | NVIDIA NIXL บน AWS EFA สำหรับการอนุมาน LLM แบบกระจายส่วนที่เร่งความเร็วบน GPUs และ Trainium | ลดความหน่วงในการสื่อสาร, เพิ่มการใช้งาน GPU สำหรับ LLMs ให้สูงสุด | ประกาศแล้ว |
| ประสิทธิภาพ Apache Spark | เวิร์กโหลด Spark เร็วขึ้น 3 เท่าบน Amazon EMR บน EKS ด้วยอินสแตนซ์ G7e (RTX PRO 6000) | เร่งเวลาในการรับข้อมูลเชิงลึกสำหรับการวิเคราะห์ข้อมูล, วิศวกรรมคุณสมบัติ | ประกาศแล้ว |
| การปรับแต่ง Nemotron | Reinforcement Fine-Tuning (RFT) สำหรับโมเดล Nemotron โดยตรงบน Amazon Bedrock | การปรับพฤติกรรมโมเดลให้เข้ากับโดเมนเฉพาะโดยไม่มีภาระด้านโครงสร้างพื้นฐาน | เร็ว ๆ นี้ |
| Nemotron 3 Super | โมเดล MoE แบบไฮบริดสำหรับเวิร์กโหลดแบบหลายตัวแทนและการให้เหตุผลที่ซับซ้อนบน Amazon Bedrock | การอนุมานที่รวดเร็วและคุ้มค่าสำหรับงาน AI ที่ซับซ้อนและมีหลายขั้นตอน | เร็ว ๆ นี้ |
ความมุ่งมั่นต่อประสิทธิภาพการใช้พลังงานและ AI ที่ยั่งยืน
ในขณะที่เวิร์กโหลด AI ยังคงเติบโตแบบทวีคูณ ประสิทธิภาพและความยั่งยืนของโครงสร้างพื้นฐานที่รองรับจึงกลายเป็นสิ่งสำคัญยิ่ง ความร่วมมือนี้ยังเน้นย้ำถึงความมุ่งมั่นร่วมกันในการปรับปรุงประสิทธิภาพการใช้พลังงาน ประสิทธิภาพต่อวัตต์ไม่เป็นเพียงตัวชี้วัดความยั่งยืนอีกต่อไป แต่เป็นความได้เปรียบในการแข่งขันที่สำคัญในภูมิทัศน์ของ AI
ที่ NVIDIA GTC 2026, Kara Hurst ประธานเจ้าหน้าที่ฝ่ายความยั่งยืนของ Amazon ได้เข้าร่วมกับผู้นำด้านความยั่งยืนคนอื่นๆ เพื่อหารือว่า AI กำลังเปลี่ยนแปลงพลังงานและโครงสร้างพื้นฐานขององค์กรในวงกว้างอย่างไร การอภิปรายนี้เน้นย้ำถึงการมุ่งเน้นในการพัฒนาและปรับใช้โซลูชัน AI ที่ไม่เพียงแต่ทรงพลังเท่านั้น แต่ยังรับผิดชอบต่อสิ่งแวดล้อมด้วย ตั้งแต่ศูนย์ข้อมูลที่ได้รับการปรับปรุงให้เป็นผู้เข้าร่วมกริดเชิงรุกไปจนถึงแอปพลิเคชัน AI สำหรับองค์กรในวงกว้าง
คำถามที่พบบ่อย
What is the primary goal of the expanded strategic collaboration between AWS and NVIDIA?
What significant GPU infrastructure expansions are planned by AWS as part of this collaboration?
How will the new Amazon EC2 instances with NVIDIA RTX PRO 4500 Blackwell Server Edition GPUs benefit users?
How does the integration of NVIDIA NIXL with AWS EFA enhance Large Language Model (LLM) inference?
What improvements are being made to Apache Spark performance for data analytics?
What expanded NVIDIA Nemotron model support is coming to Amazon Bedrock?
How does this collaboration address energy efficiency and sustainability in AI?
อัปเดตข่าวสาร
รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ
