title: "ชิป MTIA ของ Meta ขยาย AI สู่ผู้คนหลายพันล้าน" slug: "meta-mtia-scale-ai-chips-for-billions" date: "2026-03-14" lang: "th" source: "https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/" category: "AI ระดับองค์กร" keywords:
- Meta
- MTIA
- ชิป AI
- GenAI
- ฮาร์ดแวร์อนุมาน
- ซิลิคอนสั่งทำ
- ศูนย์ข้อมูล
- Llama
- แบนด์วิดท์ HBM
- ประเภทข้อมูลความแม่นยำต่ำ
- โครงสร้างพื้นฐาน AI
- เวิร์กโหลด R&R meta_description: "ชิป AI ตระกูล MTIA ของ Meta พัฒนาอย่างรวดเร็ว โดยมีสี่รุ่นในสองปี เพื่อขยายขีดความสามารถของ GenAI และประสบการณ์ R&R สำหรับผู้ใช้งานหลายพันล้านคนได้อย่างมีประสิทธิภาพ" image: "/images/articles/meta-mtia-scale-ai-chips-for-billions.png" image_alt: "ชิป AI ตระกูล MTIA ของ Meta บนแผงเซิร์ฟเวอร์ในแร็คศูนย์ข้อมูล" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Meta schema_type: "NewsArticle" reading_time: 7 faq:
- question: "ชิป MTIA ของ Meta คืออะไร และมีวัตถุประสงค์อย่างไร?" answer: "ชิป Meta Training and Inference Accelerator (MTIA) เป็นตัวเร่ง AI ที่ออกแบบเองโดย Meta โดยร่วมมือกับ Broadcom วัตถุประสงค์หลักคือเพื่อขับเคลื่อนประสบการณ์ที่ขับเคลื่อนด้วย AI จำนวนมหาศาลบนแพลตฟอร์มของ Meta สำหรับผู้ใช้งานหลายพันล้านคน ซึ่งรวมถึงทุกอย่างตั้งแต่คำแนะนำส่วนบุคคล (R&R) ไปจนถึงผู้ช่วย Generative AI (GenAI) ขั้นสูง ด้วยการพัฒนาซิลิคอนของตนเอง Meta มุ่งมั่นที่จะขยายเวิร์กโหลด AI อย่างคุ้มค่า รักษาความยืดหยุ่น และเพิ่มประสิทธิภาพสำหรับความต้องการโครงสร้างพื้นฐานเฉพาะของตน เพื่อให้มั่นใจถึงนวัตกรรมอย่างต่อเนื่องในการพัฒนาฮาร์ดแวร์ AI"
- question: "Meta ได้พัฒนาชิป MTIA ไปแล้วกี่รุ่นในช่วงไม่กี่ปีที่ผ่านมา?" answer: "Meta ได้เร่งการพัฒนา MTIA อย่างรวดเร็ว โดยแนะนำชิปรุ่นใหม่สี่รุ่นต่อเนื่องกันในเวลาไม่ถึงสองปี ได้แก่ MTIA 300, MTIA 400, MTIA 450 และ MTIA 500 ชิปเหล่านี้ได้ถูกนำไปใช้งานแล้วหรือมีกำหนดจะนำไปใช้งานจำนวนมากในปี 2026 หรือ 2027 การทำซ้ำอย่างรวดเร็วนี้แสดงให้เห็นถึง 'กลยุทธ์ความเร็ว' ของ Meta ที่ออกแบบมาเพื่อรองรับวิวัฒนาการของโมเดล AI ที่รวดเร็วอย่างไม่น่าเชื่อ และรับประกันว่าฮาร์ดแวร์ของพวกเขายังคงสอดคล้องกับความต้องการของเวิร์กโหลดในปัจจุบันและอนาคต โดยขยายขอบเขตนอกเหนือจากงาน R&R เริ่มต้นไปสู่การอนุมาน GenAI ทั่วไปและ GenAI แบบพิเศษ"
- question: "'กลยุทธ์ความเร็ว' ของ Meta ในการพัฒนาชิป AI คืออะไร?" answer: "'กลยุทธ์ความเร็ว' ของ Meta คือแนวทางแบบวนซ้ำในการพัฒนาชิป AI ซึ่งแตกต่างจากวงจรการออกแบบชิปแบบดั้งเดิมที่ยาวนานกว่า ด้วยการตระหนักว่าโมเดล AI พัฒนาเร็วกว่าการพัฒนาฮาร์ดแวร์ทั่วไป Meta จึงออกแบบชิป MTIA แต่ละรุ่นให้สร้างต่อยอดจากรุ่นก่อนหน้าโดยใช้ชิปเล็ตแบบโมดูลาร์ กลยุทธ์นี้รวบรวมข้อมูลเชิงลึกเกี่ยวกับเวิร์กโหลด AI ล่าสุดและเทคโนโลยีฮาร์ดแวร์ ทำให้สามารถนำไปใช้งานได้ในระยะเวลาที่สั้นลง วงจรป้อนกลับที่รัดกุมยิ่งขึ้นนี้ช่วยให้มั่นใจว่าฮาร์ดแวร์สั่งทำพิเศษของ Meta ยังคงสอดคล้องอย่างใกล้ชิดกับโมเดล AI ที่กำลังพัฒนา ช่วยให้สามารถนำเทคโนโลยีใหม่ๆ มาใช้ได้เร็วขึ้น และรักษาประสิทธิภาพสูงสุดและความคุ้มค่า"
- question: "ชิป MTIA รุ่นใหม่ (400, 450, 500) รองรับเวิร์กโหลด Generative AI อย่างไร?" answer: "เมื่อ GenAI เติบโตขึ้นอย่างรวดเร็ว ชิป MTIA ก็มีการพัฒนาอย่างมีนัยสำคัญเพื่อรองรับเวิร์กโหลดที่มีความต้องการสูงเหล่านี้ MTIA 400 ได้เพิ่มการรองรับ GenAI ด้วย FLOPS FP8 ที่สูงขึ้น 400% และแบนด์วิดท์ HBM ที่เพิ่มขึ้น MTIA 450 ได้รับการปรับแต่งเป็นพิเศษสำหรับการอนุมาน GenAI โดยเพิ่มแบนด์วิดท์ HBM เป็นสองเท่า เพิ่ม MX4 FLOPS ขึ้น 75% แนะนำการเร่งความเร็วด้วยฮาร์ดแวร์สำหรับการคำนวณ Attention และ FFN และสร้างนวัตกรรมด้วยประเภทข้อมูลความแม่นยำต่ำแบบกำหนดเอง MTIA 500 ได้ปรับปรุงเพิ่มเติมจากนี้ โดยเพิ่มแบนด์วิดท์ HBM อีก 50% และนำเสนอนวัตกรรมความแม่นยำต่ำเพิ่มเติม โดยตรง addressing ความต้องการด้านการประมวลผลและหน่วยความจำของโมเดล GenAI ที่ซับซ้อน"
- question: "ความก้าวหน้าด้านประสิทธิภาพที่สำคัญจาก MTIA 300 ถึง MTIA 500 คืออะไร?" answer: "ตระกูลชิป MTIA มีความก้าวหน้าอย่างน่าทึ่งจากซีรีส์ 300 ไปยังซีรีส์ 500 ในเวลาไม่ถึงสองปี แบนด์วิดท์ HBM เพิ่มขึ้น 4.5 เท่า ซึ่งช่วยเพิ่มความเร็วในการเข้าถึงหน่วยความจำที่สำคัญสำหรับโมเดล AI ขนาดใหญ่ได้อย่างมาก ส่วน compute FLOPS (Floating Point Operations Per Second) เพิ่มขึ้นอย่างน่าตกใจถึง 25 เท่า โดยเฉพาะจาก MX8 ของ MTIA 300 ไปเป็น MX4 ของ MTIA 500 การปรับปรุงที่โดดเด่นเหล่านี้ตอกย้ำความสามารถของ Meta ในการเพิ่มประสิทธิภาพการประมวลผลดิบและการจัดการข้อมูลของซิลิคอนสั่งทำของตนอย่างรวดเร็ว เพื่อตอบสนองความต้องการที่เพิ่มขึ้นของโมเดล AI ขั้นสูง"
- question: "เหตุใดหน่วยความจำแบนด์วิดท์สูง (HBM) จึงสำคัญต่อประสิทธิภาพการอนุมาน GenAI?" answer: "หน่วยความจำแบนด์วิดท์สูง (HBM) มีความสำคัญอย่างยิ่งต่อประสิทธิภาพการอนุมาน Generative AI (GenAI) เนื่องจากโมเดล GenAI โดยเฉพาะอย่างยิ่งโมเดลภาษาขนาดใหญ่ (LLMs) โดยทั่วไปมีพารามิเตอร์จำนวนมากและต้องการแบนด์วิดท์หน่วยความจำที่กว้างขวางเพื่อดึงและประมวลผลพารามิเตอร์เหล่านี้ได้อย่างมีประสิทธิภาพในระหว่างการอนุมาน ขั้นตอนการถอดรหัสในการอนุมาน GenAI ซึ่งสร้างโทเค็นตามลำดับ มักจะเกิดคอขวดจากการเข้าถึงหน่วยความจำมากกว่าการประมวลผลดิบ การเพิ่มแบนด์วิดท์ HBM เป็นสองเท่าหรือเพิ่มขึ้นอย่างมีนัยสำคัญ ดังที่เห็นใน MTIA 450 และ 500 แปลโดยตรงเป็นการสร้างโทเค็นที่เร็วขึ้น ความหน่วงต่ำลง และปริมาณงานที่สูงขึ้น ทำให้ประสบการณ์ AI ตอบสนองและมีประสิทธิภาพมากขึ้นสำหรับผู้ใช้งาน"
ยกระดับประสบการณ์ AI ด้วยชิป MTIA ของ Meta
ในแต่ละวัน ผู้คนหลายพันล้านคนทั่วทั้งแพลตฟอร์มที่หลากหลายของ Meta มีปฏิสัมพันธ์กับฟีเจอร์ที่ขับเคลื่อนด้วย AI มากมาย ตั้งแต่คำแนะนำเนื้อหาส่วนบุคคลไปจนถึงผู้ช่วย AI ขั้นสูง ความท้าทายพื้นฐานสำหรับ Meta และอุตสาหกรรมโดยรวม คือการปรับใช้และปรับปรุงโมเดล AI ที่ซับซ้อนเหล่านี้อย่างต่อเนื่องในระดับโลก พร้อมทั้งรักษาประสิทธิภาพด้านต้นทุนให้เหมาะสมที่สุด งานโครงสร้างพื้นฐานที่ต้องการนี้ได้รับการตอบสนองด้วยการลงทุนเชิงกลยุทธ์ของ Meta ในโซลูชันที่ยืดหยุ่นและมีการพัฒนาอย่างต่อเนื่อง โดยมีแกนหลักคือชิป AI ที่ออกแบบเอง: ตระกูล Meta Training and Inference Accelerator (MTIA)
ในขณะที่ Meta มุ่งมั่นในพอร์ตโฟลิโอซิลิคอนที่หลากหลายซึ่งใช้ทั้งโซลูชันภายในและภายนอก ชิป MTIA ซึ่งพัฒนาขึ้นโดยความร่วมมืออย่างใกล้ชิดกับ Broadcom ถือเป็นส่วนประกอบที่ขาดไม่ได้ของ กลยุทธ์โครงสร้างพื้นฐาน AI ของ Meta ตัวเร่งความเร็วที่พัฒนาขึ้นเองเหล่านี้มีความสำคัญต่อการขับเคลื่อนประสบการณ์ AI ที่เข้าถึงผู้คนหลายพันล้านคนอย่างคุ้มค่า โดยปรับตัวอย่างต่อเนื่องตามภูมิทัศน์ของโมเดล AI ที่เปลี่ยนแปลงอย่างรวดเร็ว
วิวัฒนาการแบบวนซ้ำของชิป MTIA ของ Meta
ภูมิทัศน์ของโมเดล AI อยู่ในภาวะของการเปลี่ยนแปลงอย่างต่อเนื่อง โดยพัฒนาไปในอัตราที่มักจะแซงหน้าวงจรการพัฒนาชิปแบบดั้งเดิม ด้วยการตระหนักว่าการออกแบบชิปที่อิงตามเวิร์กโหลดที่คาดการณ์ไว้อาจล้าสมัยไปแล้วเมื่อฮาร์ดแวร์เข้าสู่การผลิต Meta ได้นำ "กลยุทธ์ความเร็ว" ที่เป็นนวัตกรรมใหม่มาใช้กับ MTIA แทนที่จะเป็นระยะเวลาการพัฒนาที่ยาวนานและคาดเดา Meta ได้ใช้แนวทางแบบวนซ้ำ โดยที่ชิป MTIA แต่ละรุ่นจะสร้างต่อยอดจากรุ่นก่อนหน้า ซึ่งเกี่ยวข้องกับการใช้ชิปเล็ตแบบโมดูลาร์ การรวบรวมข้อมูลเชิงลึกเกี่ยวกับเวิร์กโหลด AI ล่าสุด และการนำเทคโนโลยีฮาร์ดแวร์ใหม่ๆ มาใช้ในระยะเวลาที่สั้นลงอย่างมาก วงจรป้อนกลับที่รัดกุมยิ่งขึ้นนี้ช่วยให้มั่นใจว่าซิลิคอนสั่งทำพิเศษของ Meta ยังคงสอดคล้องอย่างใกล้ชิดกับความต้องการที่เปลี่ยนแปลงตลอดเวลาของโมเดล AI ส่งเสริมการนำความก้าวหน้าใหม่ๆ มาใช้ได้เร็วขึ้น
Meta ได้ให้รายละเอียดเกี่ยวกับชิปรุ่นแรกสองรุ่น ได้แก่ MTIA 100 และ MTIA 200 ในเอกสารทางวิชาการแล้ว การสร้างต่อยอดจากรากฐานนี้ Meta ได้เร่งการพัฒนาเพื่อแนะนำชิปรุ่นใหม่สี่รุ่นต่อเนื่องกัน: MTIA 300, 400, 450 และ 500 ชิปเหล่านี้ได้ถูกนำไปใช้งานแล้วหรือมีกำหนดจะนำไปใช้งานจำนวนมากในปี 2026 และ 2027 การต่อเนื่องอย่างรวดเร็วนี้ทำให้ Meta สามารถขยายการรองรับเวิร์กโหลดของ MTIA ได้อย่างมีนัยสำคัญ โดยย้ายจากการอนุมานการจัดอันดับและคำแนะนำ (R&R) เริ่มต้น ไปสู่การฝึกอบรม R&R, เวิร์กโหลด Generative AI (GenAI) ทั่วไป และการอนุมาน GenAI ที่ได้รับการปรับปรุงอย่างมาก
MTIA 300: วางรากฐานสำหรับเวิร์กโหลด AI
MTIA 300 เป็นก้าวสำคัญในการเดินทางของซิลิคอนสั่งทำพิเศษของ Meta เดิมทีได้รับการปรับแต่งสำหรับโมเดล R&R ซึ่งเป็นเวิร์กโหลดที่โดดเด่นของ Meta ก่อนการเติบโตอย่างรวดเร็วของ GenAI ส่วนประกอบทางสถาปัตยกรรมของมันได้สร้างรากฐานที่แข็งแกร่งสำหรับชิปรุ่นต่อๆ ไป คุณสมบัติที่โดดเด่นของ MTIA 300 รวมถึงชิปเล็ต NIC แบบรวม เอนจินข้อความเฉพาะสำหรับการถ่ายโอนข้อมูลการสื่อสารแบบรวมกลุ่ม และความสามารถในการประมวลผลใกล้หน่วยความจำที่ออกแบบมาสำหรับการรวมกลุ่มแบบลดทอน ส่วนประกอบการสื่อสารที่มีความหน่วงต่ำและแบนด์วิดท์สูงเหล่านี้พิสูจน์แล้วว่ามีบทบาทสำคัญในการเปิดใช้งานการอนุมานและการฝึกอบรม GenAI ที่มีประสิทธิภาพในรุ่นต่อๆ มา
MTIA 300 ประกอบด้วยชิปเล็ตประมวลผลหนึ่งตัว, ชิปเล็ตเครือข่ายสองตัว และสแต็คหน่วยความจำแบนด์วิดท์สูง (HBM) หลายตัว ชิปเล็ตประมวลผลแต่ละตัวมีตารางขององค์ประกอบการประมวลผล (PE) ซึ่งออกแบบมาอย่างมีกลยุทธ์พร้อม PE สำรองเพื่อเพิ่มผลผลิต PE แต่ละตัวเป็นหน่วยที่ซับซ้อนซึ่งประกอบด้วยแกนเวกเตอร์ RISC-V สองตัว, เอนจินดอทโปรดักต์สำหรับการคูณเมทริกซ์, หน่วยฟังก์ชันพิเศษสำหรับการเปิดใช้งานและการดำเนินการแบบธาตุเดียว, เอนจินลดทอนสำหรับการสะสมและการสื่อสารระหว่าง PE และเอนจิน DMA สำหรับการเคลื่อนย้ายข้อมูลอย่างมีประสิทธิภาพภายในหน่วยความจำชั่วคราวภายใน การออกแบบที่ซับซ้อนนี้ตอกย้ำความมุ่งมั่นของ Meta ในการสร้างโซลูชันที่มีประสิทธิภาพสูงและคุ้มค่าสำหรับงาน AI หลักของตน
MTIA 400: บรรลุประสิทธิภาพ GenAI ที่แข่งขันได้
ด้วยการเพิ่มขึ้นอย่างไม่เคยมีมาก่อนของ Generative AI Meta ได้พัฒนา MTIA 300 อย่างรวดเร็วไปเป็น MTIA 400 เพื่อให้การสนับสนุนที่แข็งแกร่งสำหรับเวิร์กโหลด GenAI ควบคู่ไปกับความสามารถ R&R ที่มีอยู่ MTIA 400 แสดงถึงการก้าวกระโดดที่สำคัญ โดยให้ FLOPS FP8 สูงขึ้น 400% และแบนด์วิดท์ HBM เพิ่มขึ้น 51% เมื่อเทียบกับรุ่นก่อนหน้า ในขณะที่ MTIA 300 มุ่งเน้นไปที่ความคุ้มค่า MTIA 400 ได้รับการออกแบบมาเพื่อมอบประสิทธิภาพดิบที่สามารถแข่งขันกับตัวเร่ง AI เชิงพาณิชย์ชั้นนำได้
สิ่งนี้ทำได้โดยการรวมชิปเล็ตประมวลผลสองตัวเข้าด้วยกันเพื่อเพิ่มความหนาแน่นของการประมวลผลเป็นสองเท่าอย่างมีประสิทธิภาพ และโดยการรองรับ MX8 และ MX4 เวอร์ชันที่ปรับปรุงแล้ว ซึ่งเป็นรูปแบบความแม่นยำต่ำที่สำคัญสำหรับการอนุมาน GenAI ที่มีประสิทธิภาพ แร็คเดียวที่ติดตั้งอุปกรณ์ MTIA 400 จำนวน 72 ชิ้น ซึ่งเชื่อมต่อกันผ่านแบ็คเพลนแบบสวิตช์ จะสร้างโดเมนสเกลอัพที่ทรงพลัง ระบบเหล่านี้รองรับโดยแร็คระบายความร้อนด้วยของเหลวแบบช่วยอากาศ (AALC) ขั้นสูง ซึ่งช่วยให้สามารถนำไปใช้งานได้อย่างรวดเร็วแม้ในศูนย์ข้อมูลเดิม แสดงให้เห็นถึงแนวทางปฏิบัติของ Meta ในการขยายโครงสร้างพื้นฐาน AI ของตนทั่วโลก
MTIA 450 และ 500: เชี่ยวชาญสำหรับการอนุมาน GenAI
Meta คาดการณ์ถึงการเติบโตแบบทวีคูณอย่างต่อเนื่องของความต้องการการอนุมาน GenAI และได้ปรับปรุง MTIA 400 ให้ดียิ่งขึ้น นำไปสู่การพัฒนา MTIA 450 และต่อมาคือ MTIA 500 ชิปรุ่นเหล่านี้ได้รับการปรับแต่งเป็นพิเศษสำหรับความท้าทายที่ไม่เหมือนใครของการอนุมาน GenAI โดยมุ่งเน้นไปที่ความก้าวหน้าที่สำคัญในด้านหน่วยความจำและการประมวลผล
MTIA 450 ได้สร้างความก้าวหน้าที่สำคัญโดย:
- เพิ่มแบนด์วิดท์ HBM เป็นสองเท่า จากเวอร์ชันก่อนหน้า ซึ่งมีความสำคัญต่อการเร่งขั้นตอนการถอดรหัสในโมเดล GenAI
- เพิ่ม MX4 FLOPS ขึ้น 75% เร่งความเร็วการคำนวณเครือข่ายฟีดฟอร์เวิร์ด (FFN) แบบผสมผู้เชี่ยวชาญ (MoE) ที่พบบ่อยในโมเดลภาษาขนาดใหญ่
- แนะนำการเร่งความเร็วด้วยฮาร์ดแวร์ เพื่อทำให้การคำนวณ Attention และ FFN มีประสิทธิภาพมากขึ้น บรรเทาคอขวดที่เกี่ยวข้องกับ Softmax และ FlashAttention
- สร้างสรรค์นวัตกรรมในประเภทข้อมูลความแม่นยำต่ำ โดยก้าวข้าม FP8/MX8 เพื่อส่งมอบ MX4 FLOPS ที่มากกว่า FP16/BF16 ถึง 6 เท่า ด้วยนวัตกรรมประเภทข้อมูลที่กำหนดเองซึ่งรักษาคุณภาพโมเดลและเพิ่ม FLOPS โดยมีผลกระทบต่อพื้นที่ชิปน้อยที่สุด
MTIA 500 ซึ่งสร้างจากความสำเร็จของ 450 ได้เพิ่มแบนด์วิดท์ HBM อีก 50% และนำเสนอนวัตกรรมเพิ่มเติมในประเภทข้อมูลความแม่นยำต่ำ ตอกย้ำความมุ่งมั่นของ Meta ในการผลักดันขีดจำกัดของประสิทธิภาพการอนุมาน GenAI ความมุ่งมั่นอย่างไม่หยุดยั้งในการปรับปรุงนี้ทำให้มั่นใจว่าประสบการณ์ AI ของ Meta ยังคงล้ำสมัยอยู่เสมอ
ความก้าวหน้าสะสมในชิปรุ่นเหล่านี้มีความโดดเด่นอย่างมาก จาก MTIA 300 ถึง MTIA 500 แบนด์วิดท์ HBM ได้เพิ่มขึ้นถึง 4.5 เท่าอย่างน่าประทับใจ ในขณะที่ compute FLOPS เพิ่มขึ้นอย่างน่าตกใจถึง 25 เท่า (จาก MX8 ของ MTIA 300 ไปเป็น MX4 ของ MTIA 500) การเร่งความเร็วอย่างรวดเร็วภายในสองปีนี้เป็นข้อพิสูจน์ถึงกลยุทธ์ความเร็วของ Meta และความสามารถในการปรับปรุงซิลิคอนสั่งทำของตนอย่างต่อเนื่อง วิวัฒนาการนี้เป็นหัวใจสำคัญในการ นำ AI ตัวแทนมาใช้งานจริง และโมเดลที่ซับซ้อนอื่นๆ ในระดับที่ใหญ่ขึ้น
นี่คือรายละเอียดของข้อกำหนดที่สำคัญในตระกูล MTIA:
| คุณสมบัติ | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| คอมพิวต์ได | 1 | 2 | 2 | 2 |
| สแต็ค HBM | 4 | 4 | 8 | 8 |
| แบนด์วิดท์ HBM (GB/s)* | 100 | 151 | 302 | 453 |
| MX8 FLOPS (TFLOPS) | 100 | 400 | 400 | 400 |
| MX4 FLOPS (TFLOPS) | N/A | 200 | 350 | 500 |
| ขนาดโดเมนสเกลอัพ | 18 อุปกรณ์** | 72 อุปกรณ์ | 72 อุปกรณ์ | 72 อุปกรณ์ |
| การปรับแต่งที่สำคัญ | การฝึกอบรม R&R, การสื่อสารความหน่วงต่ำ | GenAI ทั่วไป, ประสิทธิภาพดิบที่แข่งขันได้ | การอนุมาน GenAI, HBM, ความแม่นยำต่ำแบบกำหนดเอง | การอนุมาน GenAI, HBM, ความแม่นยำต่ำแบบกำหนดเอง |
*ผู้จำหน่ายบางรายรายงานแบนด์วิดท์แบบสองทิศทาง หากต้องการหาค่าแบนด์วิดท์แบบสองทิศทางที่สอดคล้องกัน ให้คูณค่าในตารางด้วยสอง **MTIA 300 ได้รับการกำหนดค่าด้วยเครือข่ายแบบสเกลเอาต์ที่มีแบนด์วิดท์สูงกว่า (200 GB/s) เนื่องจากมีขนาดโดเมนสเกลอัพที่ค่อนข้างเล็กและเวิร์กโหลด R&R ที่กำหนดเป้าหมายไว้
ข้อกำหนดเหล่านี้เน้นย้ำถึงการปรับปรุงอย่างมากในแบนด์วิดท์หน่วยความจำและพลังการประมวลผล แสดงให้เห็นว่าชิป MTIA แต่ละรุ่นได้รับการออกแบบอย่างพิถีพิถันเพื่อตอบสนองความต้องการเร่งด่วนที่สุดของแอปพลิเคชัน AI ในปัจจุบันและอนาคต โดยเฉพาะอย่างยิ่งโมเดล GenAI ที่ใช้ทรัพยากรสูง
การแสวงหาโซลูชันซิลิคอนสั่งทำอย่างไม่หยุดยั้งของ Meta ผ่านตระกูล MTIA ตอกย้ำความมุ่งมั่นในการส่งมอบประสบการณ์ AI ที่ล้ำสมัยให้กับผู้ใช้งานหลายพันล้านคนทั่วโลก ด้วยการรวมนวัตกรรมภายในเข้ากับความร่วมมือเชิงกลยุทธ์ Meta ยังคงกำหนดนิยามใหม่ของความเป็นไปได้ของโครงสร้างพื้นฐาน AI ที่ปรับขนาดได้และคุ้มค่า
คำถามที่พบบ่อย
What are Meta MTIA chips and what is their purpose?
How many generations of MTIA chips has Meta developed in recent years?
What is Meta's 'velocity strategy' for AI chip development?
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
What are the key performance advancements from MTIA 300 to MTIA 500?
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
อัปเดตข่าวสาร
รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ
