Code Velocity
AI ระดับองค์กร

ชิป MTIA ของ Meta ขยาย AI สู่ผู้คนหลายพันล้าน

·7 นาทีอ่าน·Meta·แหล่งที่มา
แชร์
ชิป AI ตระกูล MTIA ของ Meta บนแผงเซิร์ฟเวอร์ในแร็คศูนย์ข้อมูล

title: "ชิป MTIA ของ Meta ขยาย AI สู่ผู้คนหลายพันล้าน" slug: "meta-mtia-scale-ai-chips-for-billions" date: "2026-03-14" lang: "th" source: "https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/" category: "AI ระดับองค์กร" keywords:

  • Meta
  • MTIA
  • ชิป AI
  • GenAI
  • ฮาร์ดแวร์อนุมาน
  • ซิลิคอนสั่งทำ
  • ศูนย์ข้อมูล
  • Llama
  • แบนด์วิดท์ HBM
  • ประเภทข้อมูลความแม่นยำต่ำ
  • โครงสร้างพื้นฐาน AI
  • เวิร์กโหลด R&R meta_description: "ชิป AI ตระกูล MTIA ของ Meta พัฒนาอย่างรวดเร็ว โดยมีสี่รุ่นในสองปี เพื่อขยายขีดความสามารถของ GenAI และประสบการณ์ R&R สำหรับผู้ใช้งานหลายพันล้านคนได้อย่างมีประสิทธิภาพ" image: "/images/articles/meta-mtia-scale-ai-chips-for-billions.png" image_alt: "ชิป AI ตระกูล MTIA ของ Meta บนแผงเซิร์ฟเวอร์ในแร็คศูนย์ข้อมูล" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Meta schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "ชิป MTIA ของ Meta คืออะไร และมีวัตถุประสงค์อย่างไร?" answer: "ชิป Meta Training and Inference Accelerator (MTIA) เป็นตัวเร่ง AI ที่ออกแบบเองโดย Meta โดยร่วมมือกับ Broadcom วัตถุประสงค์หลักคือเพื่อขับเคลื่อนประสบการณ์ที่ขับเคลื่อนด้วย AI จำนวนมหาศาลบนแพลตฟอร์มของ Meta สำหรับผู้ใช้งานหลายพันล้านคน ซึ่งรวมถึงทุกอย่างตั้งแต่คำแนะนำส่วนบุคคล (R&R) ไปจนถึงผู้ช่วย Generative AI (GenAI) ขั้นสูง ด้วยการพัฒนาซิลิคอนของตนเอง Meta มุ่งมั่นที่จะขยายเวิร์กโหลด AI อย่างคุ้มค่า รักษาความยืดหยุ่น และเพิ่มประสิทธิภาพสำหรับความต้องการโครงสร้างพื้นฐานเฉพาะของตน เพื่อให้มั่นใจถึงนวัตกรรมอย่างต่อเนื่องในการพัฒนาฮาร์ดแวร์ AI"
  • question: "Meta ได้พัฒนาชิป MTIA ไปแล้วกี่รุ่นในช่วงไม่กี่ปีที่ผ่านมา?" answer: "Meta ได้เร่งการพัฒนา MTIA อย่างรวดเร็ว โดยแนะนำชิปรุ่นใหม่สี่รุ่นต่อเนื่องกันในเวลาไม่ถึงสองปี ได้แก่ MTIA 300, MTIA 400, MTIA 450 และ MTIA 500 ชิปเหล่านี้ได้ถูกนำไปใช้งานแล้วหรือมีกำหนดจะนำไปใช้งานจำนวนมากในปี 2026 หรือ 2027 การทำซ้ำอย่างรวดเร็วนี้แสดงให้เห็นถึง 'กลยุทธ์ความเร็ว' ของ Meta ที่ออกแบบมาเพื่อรองรับวิวัฒนาการของโมเดล AI ที่รวดเร็วอย่างไม่น่าเชื่อ และรับประกันว่าฮาร์ดแวร์ของพวกเขายังคงสอดคล้องกับความต้องการของเวิร์กโหลดในปัจจุบันและอนาคต โดยขยายขอบเขตนอกเหนือจากงาน R&R เริ่มต้นไปสู่การอนุมาน GenAI ทั่วไปและ GenAI แบบพิเศษ"
  • question: "'กลยุทธ์ความเร็ว' ของ Meta ในการพัฒนาชิป AI คืออะไร?" answer: "'กลยุทธ์ความเร็ว' ของ Meta คือแนวทางแบบวนซ้ำในการพัฒนาชิป AI ซึ่งแตกต่างจากวงจรการออกแบบชิปแบบดั้งเดิมที่ยาวนานกว่า ด้วยการตระหนักว่าโมเดล AI พัฒนาเร็วกว่าการพัฒนาฮาร์ดแวร์ทั่วไป Meta จึงออกแบบชิป MTIA แต่ละรุ่นให้สร้างต่อยอดจากรุ่นก่อนหน้าโดยใช้ชิปเล็ตแบบโมดูลาร์ กลยุทธ์นี้รวบรวมข้อมูลเชิงลึกเกี่ยวกับเวิร์กโหลด AI ล่าสุดและเทคโนโลยีฮาร์ดแวร์ ทำให้สามารถนำไปใช้งานได้ในระยะเวลาที่สั้นลง วงจรป้อนกลับที่รัดกุมยิ่งขึ้นนี้ช่วยให้มั่นใจว่าฮาร์ดแวร์สั่งทำพิเศษของ Meta ยังคงสอดคล้องอย่างใกล้ชิดกับโมเดล AI ที่กำลังพัฒนา ช่วยให้สามารถนำเทคโนโลยีใหม่ๆ มาใช้ได้เร็วขึ้น และรักษาประสิทธิภาพสูงสุดและความคุ้มค่า"
  • question: "ชิป MTIA รุ่นใหม่ (400, 450, 500) รองรับเวิร์กโหลด Generative AI อย่างไร?" answer: "เมื่อ GenAI เติบโตขึ้นอย่างรวดเร็ว ชิป MTIA ก็มีการพัฒนาอย่างมีนัยสำคัญเพื่อรองรับเวิร์กโหลดที่มีความต้องการสูงเหล่านี้ MTIA 400 ได้เพิ่มการรองรับ GenAI ด้วย FLOPS FP8 ที่สูงขึ้น 400% และแบนด์วิดท์ HBM ที่เพิ่มขึ้น MTIA 450 ได้รับการปรับแต่งเป็นพิเศษสำหรับการอนุมาน GenAI โดยเพิ่มแบนด์วิดท์ HBM เป็นสองเท่า เพิ่ม MX4 FLOPS ขึ้น 75% แนะนำการเร่งความเร็วด้วยฮาร์ดแวร์สำหรับการคำนวณ Attention และ FFN และสร้างนวัตกรรมด้วยประเภทข้อมูลความแม่นยำต่ำแบบกำหนดเอง MTIA 500 ได้ปรับปรุงเพิ่มเติมจากนี้ โดยเพิ่มแบนด์วิดท์ HBM อีก 50% และนำเสนอนวัตกรรมความแม่นยำต่ำเพิ่มเติม โดยตรง addressing ความต้องการด้านการประมวลผลและหน่วยความจำของโมเดล GenAI ที่ซับซ้อน"
  • question: "ความก้าวหน้าด้านประสิทธิภาพที่สำคัญจาก MTIA 300 ถึง MTIA 500 คืออะไร?" answer: "ตระกูลชิป MTIA มีความก้าวหน้าอย่างน่าทึ่งจากซีรีส์ 300 ไปยังซีรีส์ 500 ในเวลาไม่ถึงสองปี แบนด์วิดท์ HBM เพิ่มขึ้น 4.5 เท่า ซึ่งช่วยเพิ่มความเร็วในการเข้าถึงหน่วยความจำที่สำคัญสำหรับโมเดล AI ขนาดใหญ่ได้อย่างมาก ส่วน compute FLOPS (Floating Point Operations Per Second) เพิ่มขึ้นอย่างน่าตกใจถึง 25 เท่า โดยเฉพาะจาก MX8 ของ MTIA 300 ไปเป็น MX4 ของ MTIA 500 การปรับปรุงที่โดดเด่นเหล่านี้ตอกย้ำความสามารถของ Meta ในการเพิ่มประสิทธิภาพการประมวลผลดิบและการจัดการข้อมูลของซิลิคอนสั่งทำของตนอย่างรวดเร็ว เพื่อตอบสนองความต้องการที่เพิ่มขึ้นของโมเดล AI ขั้นสูง"
  • question: "เหตุใดหน่วยความจำแบนด์วิดท์สูง (HBM) จึงสำคัญต่อประสิทธิภาพการอนุมาน GenAI?" answer: "หน่วยความจำแบนด์วิดท์สูง (HBM) มีความสำคัญอย่างยิ่งต่อประสิทธิภาพการอนุมาน Generative AI (GenAI) เนื่องจากโมเดล GenAI โดยเฉพาะอย่างยิ่งโมเดลภาษาขนาดใหญ่ (LLMs) โดยทั่วไปมีพารามิเตอร์จำนวนมากและต้องการแบนด์วิดท์หน่วยความจำที่กว้างขวางเพื่อดึงและประมวลผลพารามิเตอร์เหล่านี้ได้อย่างมีประสิทธิภาพในระหว่างการอนุมาน ขั้นตอนการถอดรหัสในการอนุมาน GenAI ซึ่งสร้างโทเค็นตามลำดับ มักจะเกิดคอขวดจากการเข้าถึงหน่วยความจำมากกว่าการประมวลผลดิบ การเพิ่มแบนด์วิดท์ HBM เป็นสองเท่าหรือเพิ่มขึ้นอย่างมีนัยสำคัญ ดังที่เห็นใน MTIA 450 และ 500 แปลโดยตรงเป็นการสร้างโทเค็นที่เร็วขึ้น ความหน่วงต่ำลง และปริมาณงานที่สูงขึ้น ทำให้ประสบการณ์ AI ตอบสนองและมีประสิทธิภาพมากขึ้นสำหรับผู้ใช้งาน"

ยกระดับประสบการณ์ AI ด้วยชิป MTIA ของ Meta

ในแต่ละวัน ผู้คนหลายพันล้านคนทั่วทั้งแพลตฟอร์มที่หลากหลายของ Meta มีปฏิสัมพันธ์กับฟีเจอร์ที่ขับเคลื่อนด้วย AI มากมาย ตั้งแต่คำแนะนำเนื้อหาส่วนบุคคลไปจนถึงผู้ช่วย AI ขั้นสูง ความท้าทายพื้นฐานสำหรับ Meta และอุตสาหกรรมโดยรวม คือการปรับใช้และปรับปรุงโมเดล AI ที่ซับซ้อนเหล่านี้อย่างต่อเนื่องในระดับโลก พร้อมทั้งรักษาประสิทธิภาพด้านต้นทุนให้เหมาะสมที่สุด งานโครงสร้างพื้นฐานที่ต้องการนี้ได้รับการตอบสนองด้วยการลงทุนเชิงกลยุทธ์ของ Meta ในโซลูชันที่ยืดหยุ่นและมีการพัฒนาอย่างต่อเนื่อง โดยมีแกนหลักคือชิป AI ที่ออกแบบเอง: ตระกูล Meta Training and Inference Accelerator (MTIA)

ในขณะที่ Meta มุ่งมั่นในพอร์ตโฟลิโอซิลิคอนที่หลากหลายซึ่งใช้ทั้งโซลูชันภายในและภายนอก ชิป MTIA ซึ่งพัฒนาขึ้นโดยความร่วมมืออย่างใกล้ชิดกับ Broadcom ถือเป็นส่วนประกอบที่ขาดไม่ได้ของ กลยุทธ์โครงสร้างพื้นฐาน AI ของ Meta ตัวเร่งความเร็วที่พัฒนาขึ้นเองเหล่านี้มีความสำคัญต่อการขับเคลื่อนประสบการณ์ AI ที่เข้าถึงผู้คนหลายพันล้านคนอย่างคุ้มค่า โดยปรับตัวอย่างต่อเนื่องตามภูมิทัศน์ของโมเดล AI ที่เปลี่ยนแปลงอย่างรวดเร็ว

วิวัฒนาการแบบวนซ้ำของชิป MTIA ของ Meta

ภูมิทัศน์ของโมเดล AI อยู่ในภาวะของการเปลี่ยนแปลงอย่างต่อเนื่อง โดยพัฒนาไปในอัตราที่มักจะแซงหน้าวงจรการพัฒนาชิปแบบดั้งเดิม ด้วยการตระหนักว่าการออกแบบชิปที่อิงตามเวิร์กโหลดที่คาดการณ์ไว้อาจล้าสมัยไปแล้วเมื่อฮาร์ดแวร์เข้าสู่การผลิต Meta ได้นำ "กลยุทธ์ความเร็ว" ที่เป็นนวัตกรรมใหม่มาใช้กับ MTIA แทนที่จะเป็นระยะเวลาการพัฒนาที่ยาวนานและคาดเดา Meta ได้ใช้แนวทางแบบวนซ้ำ โดยที่ชิป MTIA แต่ละรุ่นจะสร้างต่อยอดจากรุ่นก่อนหน้า ซึ่งเกี่ยวข้องกับการใช้ชิปเล็ตแบบโมดูลาร์ การรวบรวมข้อมูลเชิงลึกเกี่ยวกับเวิร์กโหลด AI ล่าสุด และการนำเทคโนโลยีฮาร์ดแวร์ใหม่ๆ มาใช้ในระยะเวลาที่สั้นลงอย่างมาก วงจรป้อนกลับที่รัดกุมยิ่งขึ้นนี้ช่วยให้มั่นใจว่าซิลิคอนสั่งทำพิเศษของ Meta ยังคงสอดคล้องอย่างใกล้ชิดกับความต้องการที่เปลี่ยนแปลงตลอดเวลาของโมเดล AI ส่งเสริมการนำความก้าวหน้าใหม่ๆ มาใช้ได้เร็วขึ้น

Meta ได้ให้รายละเอียดเกี่ยวกับชิปรุ่นแรกสองรุ่น ได้แก่ MTIA 100 และ MTIA 200 ในเอกสารทางวิชาการแล้ว การสร้างต่อยอดจากรากฐานนี้ Meta ได้เร่งการพัฒนาเพื่อแนะนำชิปรุ่นใหม่สี่รุ่นต่อเนื่องกัน: MTIA 300, 400, 450 และ 500 ชิปเหล่านี้ได้ถูกนำไปใช้งานแล้วหรือมีกำหนดจะนำไปใช้งานจำนวนมากในปี 2026 และ 2027 การต่อเนื่องอย่างรวดเร็วนี้ทำให้ Meta สามารถขยายการรองรับเวิร์กโหลดของ MTIA ได้อย่างมีนัยสำคัญ โดยย้ายจากการอนุมานการจัดอันดับและคำแนะนำ (R&R) เริ่มต้น ไปสู่การฝึกอบรม R&R, เวิร์กโหลด Generative AI (GenAI) ทั่วไป และการอนุมาน GenAI ที่ได้รับการปรับปรุงอย่างมาก

MTIA 300: วางรากฐานสำหรับเวิร์กโหลด AI

MTIA 300 เป็นก้าวสำคัญในการเดินทางของซิลิคอนสั่งทำพิเศษของ Meta เดิมทีได้รับการปรับแต่งสำหรับโมเดล R&R ซึ่งเป็นเวิร์กโหลดที่โดดเด่นของ Meta ก่อนการเติบโตอย่างรวดเร็วของ GenAI ส่วนประกอบทางสถาปัตยกรรมของมันได้สร้างรากฐานที่แข็งแกร่งสำหรับชิปรุ่นต่อๆ ไป คุณสมบัติที่โดดเด่นของ MTIA 300 รวมถึงชิปเล็ต NIC แบบรวม เอนจินข้อความเฉพาะสำหรับการถ่ายโอนข้อมูลการสื่อสารแบบรวมกลุ่ม และความสามารถในการประมวลผลใกล้หน่วยความจำที่ออกแบบมาสำหรับการรวมกลุ่มแบบลดทอน ส่วนประกอบการสื่อสารที่มีความหน่วงต่ำและแบนด์วิดท์สูงเหล่านี้พิสูจน์แล้วว่ามีบทบาทสำคัญในการเปิดใช้งานการอนุมานและการฝึกอบรม GenAI ที่มีประสิทธิภาพในรุ่นต่อๆ มา

MTIA 300 ประกอบด้วยชิปเล็ตประมวลผลหนึ่งตัว, ชิปเล็ตเครือข่ายสองตัว และสแต็คหน่วยความจำแบนด์วิดท์สูง (HBM) หลายตัว ชิปเล็ตประมวลผลแต่ละตัวมีตารางขององค์ประกอบการประมวลผล (PE) ซึ่งออกแบบมาอย่างมีกลยุทธ์พร้อม PE สำรองเพื่อเพิ่มผลผลิต PE แต่ละตัวเป็นหน่วยที่ซับซ้อนซึ่งประกอบด้วยแกนเวกเตอร์ RISC-V สองตัว, เอนจินดอทโปรดักต์สำหรับการคูณเมทริกซ์, หน่วยฟังก์ชันพิเศษสำหรับการเปิดใช้งานและการดำเนินการแบบธาตุเดียว, เอนจินลดทอนสำหรับการสะสมและการสื่อสารระหว่าง PE และเอนจิน DMA สำหรับการเคลื่อนย้ายข้อมูลอย่างมีประสิทธิภาพภายในหน่วยความจำชั่วคราวภายใน การออกแบบที่ซับซ้อนนี้ตอกย้ำความมุ่งมั่นของ Meta ในการสร้างโซลูชันที่มีประสิทธิภาพสูงและคุ้มค่าสำหรับงาน AI หลักของตน

MTIA 400: บรรลุประสิทธิภาพ GenAI ที่แข่งขันได้

ด้วยการเพิ่มขึ้นอย่างไม่เคยมีมาก่อนของ Generative AI Meta ได้พัฒนา MTIA 300 อย่างรวดเร็วไปเป็น MTIA 400 เพื่อให้การสนับสนุนที่แข็งแกร่งสำหรับเวิร์กโหลด GenAI ควบคู่ไปกับความสามารถ R&R ที่มีอยู่ MTIA 400 แสดงถึงการก้าวกระโดดที่สำคัญ โดยให้ FLOPS FP8 สูงขึ้น 400% และแบนด์วิดท์ HBM เพิ่มขึ้น 51% เมื่อเทียบกับรุ่นก่อนหน้า ในขณะที่ MTIA 300 มุ่งเน้นไปที่ความคุ้มค่า MTIA 400 ได้รับการออกแบบมาเพื่อมอบประสิทธิภาพดิบที่สามารถแข่งขันกับตัวเร่ง AI เชิงพาณิชย์ชั้นนำได้

สิ่งนี้ทำได้โดยการรวมชิปเล็ตประมวลผลสองตัวเข้าด้วยกันเพื่อเพิ่มความหนาแน่นของการประมวลผลเป็นสองเท่าอย่างมีประสิทธิภาพ และโดยการรองรับ MX8 และ MX4 เวอร์ชันที่ปรับปรุงแล้ว ซึ่งเป็นรูปแบบความแม่นยำต่ำที่สำคัญสำหรับการอนุมาน GenAI ที่มีประสิทธิภาพ แร็คเดียวที่ติดตั้งอุปกรณ์ MTIA 400 จำนวน 72 ชิ้น ซึ่งเชื่อมต่อกันผ่านแบ็คเพลนแบบสวิตช์ จะสร้างโดเมนสเกลอัพที่ทรงพลัง ระบบเหล่านี้รองรับโดยแร็คระบายความร้อนด้วยของเหลวแบบช่วยอากาศ (AALC) ขั้นสูง ซึ่งช่วยให้สามารถนำไปใช้งานได้อย่างรวดเร็วแม้ในศูนย์ข้อมูลเดิม แสดงให้เห็นถึงแนวทางปฏิบัติของ Meta ในการขยายโครงสร้างพื้นฐาน AI ของตนทั่วโลก

MTIA 450 และ 500: เชี่ยวชาญสำหรับการอนุมาน GenAI

Meta คาดการณ์ถึงการเติบโตแบบทวีคูณอย่างต่อเนื่องของความต้องการการอนุมาน GenAI และได้ปรับปรุง MTIA 400 ให้ดียิ่งขึ้น นำไปสู่การพัฒนา MTIA 450 และต่อมาคือ MTIA 500 ชิปรุ่นเหล่านี้ได้รับการปรับแต่งเป็นพิเศษสำหรับความท้าทายที่ไม่เหมือนใครของการอนุมาน GenAI โดยมุ่งเน้นไปที่ความก้าวหน้าที่สำคัญในด้านหน่วยความจำและการประมวลผล

MTIA 450 ได้สร้างความก้าวหน้าที่สำคัญโดย:

  1. เพิ่มแบนด์วิดท์ HBM เป็นสองเท่า จากเวอร์ชันก่อนหน้า ซึ่งมีความสำคัญต่อการเร่งขั้นตอนการถอดรหัสในโมเดล GenAI
  2. เพิ่ม MX4 FLOPS ขึ้น 75% เร่งความเร็วการคำนวณเครือข่ายฟีดฟอร์เวิร์ด (FFN) แบบผสมผู้เชี่ยวชาญ (MoE) ที่พบบ่อยในโมเดลภาษาขนาดใหญ่
  3. แนะนำการเร่งความเร็วด้วยฮาร์ดแวร์ เพื่อทำให้การคำนวณ Attention และ FFN มีประสิทธิภาพมากขึ้น บรรเทาคอขวดที่เกี่ยวข้องกับ Softmax และ FlashAttention
  4. สร้างสรรค์นวัตกรรมในประเภทข้อมูลความแม่นยำต่ำ โดยก้าวข้าม FP8/MX8 เพื่อส่งมอบ MX4 FLOPS ที่มากกว่า FP16/BF16 ถึง 6 เท่า ด้วยนวัตกรรมประเภทข้อมูลที่กำหนดเองซึ่งรักษาคุณภาพโมเดลและเพิ่ม FLOPS โดยมีผลกระทบต่อพื้นที่ชิปน้อยที่สุด

MTIA 500 ซึ่งสร้างจากความสำเร็จของ 450 ได้เพิ่มแบนด์วิดท์ HBM อีก 50% และนำเสนอนวัตกรรมเพิ่มเติมในประเภทข้อมูลความแม่นยำต่ำ ตอกย้ำความมุ่งมั่นของ Meta ในการผลักดันขีดจำกัดของประสิทธิภาพการอนุมาน GenAI ความมุ่งมั่นอย่างไม่หยุดยั้งในการปรับปรุงนี้ทำให้มั่นใจว่าประสบการณ์ AI ของ Meta ยังคงล้ำสมัยอยู่เสมอ

ความก้าวหน้าสะสมในชิปรุ่นเหล่านี้มีความโดดเด่นอย่างมาก จาก MTIA 300 ถึง MTIA 500 แบนด์วิดท์ HBM ได้เพิ่มขึ้นถึง 4.5 เท่าอย่างน่าประทับใจ ในขณะที่ compute FLOPS เพิ่มขึ้นอย่างน่าตกใจถึง 25 เท่า (จาก MX8 ของ MTIA 300 ไปเป็น MX4 ของ MTIA 500) การเร่งความเร็วอย่างรวดเร็วภายในสองปีนี้เป็นข้อพิสูจน์ถึงกลยุทธ์ความเร็วของ Meta และความสามารถในการปรับปรุงซิลิคอนสั่งทำของตนอย่างต่อเนื่อง วิวัฒนาการนี้เป็นหัวใจสำคัญในการ นำ AI ตัวแทนมาใช้งานจริง และโมเดลที่ซับซ้อนอื่นๆ ในระดับที่ใหญ่ขึ้น

นี่คือรายละเอียดของข้อกำหนดที่สำคัญในตระกูล MTIA:

คุณสมบัติMTIA 300MTIA 400MTIA 450MTIA 500
คอมพิวต์ได1222
สแต็ค HBM4488
แบนด์วิดท์ HBM (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
ขนาดโดเมนสเกลอัพ18 อุปกรณ์**72 อุปกรณ์72 อุปกรณ์72 อุปกรณ์
การปรับแต่งที่สำคัญการฝึกอบรม R&R, การสื่อสารความหน่วงต่ำGenAI ทั่วไป, ประสิทธิภาพดิบที่แข่งขันได้การอนุมาน GenAI, HBM, ความแม่นยำต่ำแบบกำหนดเองการอนุมาน GenAI, HBM, ความแม่นยำต่ำแบบกำหนดเอง

*ผู้จำหน่ายบางรายรายงานแบนด์วิดท์แบบสองทิศทาง หากต้องการหาค่าแบนด์วิดท์แบบสองทิศทางที่สอดคล้องกัน ให้คูณค่าในตารางด้วยสอง **MTIA 300 ได้รับการกำหนดค่าด้วยเครือข่ายแบบสเกลเอาต์ที่มีแบนด์วิดท์สูงกว่า (200 GB/s) เนื่องจากมีขนาดโดเมนสเกลอัพที่ค่อนข้างเล็กและเวิร์กโหลด R&R ที่กำหนดเป้าหมายไว้

ข้อกำหนดเหล่านี้เน้นย้ำถึงการปรับปรุงอย่างมากในแบนด์วิดท์หน่วยความจำและพลังการประมวลผล แสดงให้เห็นว่าชิป MTIA แต่ละรุ่นได้รับการออกแบบอย่างพิถีพิถันเพื่อตอบสนองความต้องการเร่งด่วนที่สุดของแอปพลิเคชัน AI ในปัจจุบันและอนาคต โดยเฉพาะอย่างยิ่งโมเดล GenAI ที่ใช้ทรัพยากรสูง

การแสวงหาโซลูชันซิลิคอนสั่งทำอย่างไม่หยุดยั้งของ Meta ผ่านตระกูล MTIA ตอกย้ำความมุ่งมั่นในการส่งมอบประสบการณ์ AI ที่ล้ำสมัยให้กับผู้ใช้งานหลายพันล้านคนทั่วโลก ด้วยการรวมนวัตกรรมภายในเข้ากับความร่วมมือเชิงกลยุทธ์ Meta ยังคงกำหนดนิยามใหม่ของความเป็นไปได้ของโครงสร้างพื้นฐาน AI ที่ปรับขนาดได้และคุ้มค่า

คำถามที่พบบ่อย

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

อัปเดตข่าวสาร

รับข่าว AI ล่าสุดในกล่องจดหมายของคุณ

แชร์