Code Velocity
Vállalati MI

A Meta MTIA chipjei milliárdok számára skálázzák az MI-t

·7 perc olvasás·Meta·Eredeti forrás
Megosztás
Meta MTIA MI chipek egy szerver alaplapon egy adatközpont rackjében

MI Élmények Skálázása a Meta MTIA Chipjeivel

Nap mint nap, milliárdok használnak MI-alapú funkciókat a Meta változatos platformjain, a személyre szabott tartalomajánlatoktól a fejlett MI asszisztensekig. A Meta – és az egész iparág – előtt álló kihívás az, hogy ezeket a kifinomult MI modelleket globális szinten telepítse és folyamatosan fejlessze, miközben fenntartja az optimális költséghatékonyságot. Ezt az igényes infrastruktúra-feladatot a Meta stratégiai befektetései oldják meg, rugalmas, folyamatosan fejlődő megoldások formájában, amelyek központi elemei az egyedi tervezésű MI chipjeik: a Meta Training and Inference Accelerator (MTIA) család.

Bár elkötelezett egy sokszínű szilícium portfólió iránt, amely belső és külső megoldásokat egyaránt felhasznál, az MTIA chipek, amelyeket szoros együttműködésben fejlesztettek ki a Broadcommal, a Meta MI infrastruktúra stratégiájának nélkülözhetetlen részét képezik. Ezek a házon belül fejlesztett gyorsítók kulcsfontosságúak az MI élmények költséghatékony biztosításához, amelyek milliárdokhoz jutnak el, folyamatosan alkalmazkodva az MI modellek gyorsan változó környezetéhez.

A Meta MTIA Chipjeinek Iteratív Fejlődése

Az MI modell környezet állandó változásban van, olyan ütemben fejlődik, amely gyakran meghaladja a hagyományos chipfejlesztési ciklusokat. Felismerve, hogy a prognosztizált munkaterhelésekre alapozott chiptervek elavulttá válhatnak, mire a hardver gyártásba kerül, a Meta egy innovatív 'sebességi stratégiát' vezetett be az MTIA-ra. A hosszú, spekulatív fejlesztési időszakok helyett a Meta iteratív megközelítést alkalmaz, ahol minden MTIA generáció az előzőre épül. Ez moduláris chipleteket, a legújabb MI munkaterhelési felismerések beépítését és új hardvertechnológiák bevezetését jelenti jelentősen rövidebb ütemben. Ez a szorosabb visszacsatolási hurok biztosítja, hogy a Meta egyedi szilíciumja szorosan igazodjon az MI modellek dinamikus igényeihez, elősegítve az új fejlesztések gyorsabb bevezetését.

A Meta már részletezte az első két generációt, az MTIA 100-at és az MTIA 200-at tudományos publikációkban. Erre az alapra építve a Meta felgyorsította a fejlesztést, hogy négy új, egymást követő generációt mutasson be: MTIA 300, 400, 450 és 500. Ezek a chipek már gyártásban vannak, vagy tömeges bevezetésüket 2026-ra és 2027-re tervezik. Ez a gyors egymásutániság lehetővé tette a Meta számára, hogy jelentősen kibővítse az MTIA munkaterhelési lefedettségét, az elsődleges rangsorolási és ajánlási (R&R) következtetéstől az R&R képzésig, az általános Generatív MI (GenAI) munkaterhelésekig és a nagymértékben optimalizált Generatív MI következtetésig.

MTIA 300: Az MI Munkaterhelések Alapjainak Letétele

Az MTIA 300 kulcsfontosságú lépést jelentett a Meta egyedi szilícium fejlesztésének útján. Kezdetben az R&R modellekre optimalizálták, amelyek a Generatív MI fellendülése előtt a Meta domináns munkaterhelései voltak. Architektúrájának építőelemei szilárd alapot teremtettek a későbbi chipek számára. Az MTIA 300 főbb jellemzői közé tartoznak az integrált NIC chipletek, a kommunikációs kollektívák tehermentesítésére szolgáló dedikált üzenetkezelő motorok, valamint a redukció-alapú kollektívákhoz tervezett memóriához közeli számítási képességek. Ezek az alacsony késleltetésű, nagy sávszélességű kommunikációs komponensek kulcsfontosságúnak bizonyultak a hatékony Generatív MI következtetés és képzés lehetővé tételében a következő generációkban.

Az MTIA 300 egy számítási chipletből, két hálózati chipletből és több nagy sávszélességű memória (HBM) stackből áll. Minden számítási chiplet feldolgozó elemek (PE) rácsát tartalmazza, stratégiailag redundáns PE-kkel tervezve a hozam növelése érdekében. Minden PE egy kifinomult egység, amely két RISC-V vektoros magot, mátrixszorzáshoz egy Dot Product Engine-t, aktiválásokhoz és elemenkénti műveletekhez egy Special Function Unit-ot, akkumulációhoz és PE-k közötti kommunikációhoz egy Reduction Engine-t, valamint a helyi scratch memórián belüli hatékony adatmozgatáshoz egy DMA motort tartalmaz. Ez a bonyolult tervezés aláhúzta a Meta elkötelezettségét, hogy rendkívül hatékony és költséghatékony megoldást hozzon létre alapvető MI feladataihoz.

MTIA 400: Versenyképes Generatív MI Teljesítmény Elérése

A Generatív MI példátlan térnyerésével a Meta gyorsan továbbfejlesztette az MTIA 300-at MTIA 400-ra, hogy robusztus támogatást nyújtson a Generatív MI munkaterhelésekhez a meglévő R&R képességei mellett. Az MTIA 400 jelentős előrelépést képvisel, 400%-kal magasabb FP8 FLOPS-ot és 51%-os HBM sávszélesség növelést kínál elődjéhez képest. Míg az MTIA 300 a költséghatékonyságra összpontosított, az MTIA 400-at úgy tervezték, hogy a vezető kereskedelmi MI gyorsítókkal versenyképes nyers teljesítményt nyújtson.

Ezt két számítási chiplet kombinálásával éri el, amelyek hatékonyan megduplázzák a számítási sűrűséget, és az MX8 és MX4 továbbfejlesztett verzióinak támogatásával, amelyek kulcsfontosságú alacsony pontosságú formátumok a hatékony Generatív MI következtetéshez. Egyetlen rack, amely 72 MTIA 400 eszközzel van felszerelve, és kapcsolt hátlapon keresztül van összekapcsolva, erőteljes skálázási tartományt alkot. Ezeket a rendszereket fejlett légsegédelt folyadékhűtéses (AALC) rackek támogatják, amelyek gyors telepítést tesznek lehetővé még a régebbi adatközpontokban is, bemutatva a Meta gyakorlati megközelítését MI infrastruktúrájának globális skálázásához.

MTIA 450 és 500: Generatív MI Következtetésre Specializálva

A Generatív MI következtetési igények folyamatos exponenciális növekedését előre látva a Meta tovább finomította az MTIA 400-at, ami az MTIA 450, majd az MTIA 500 fejlesztéséhez vezetett. Ezek a generációk kifejezetten a Generatív MI következtetés egyedi kihívásaira optimalizáltak, a memória és a számítási teljesítmény kritikus fejlesztéseire összpontosítva.

Az MTIA 450 jelentős előrelépéseket tett azáltal, hogy:

  1. Megduplázta a HBM sávszélességét az előző verzióhoz képest, ami kulcsfontosságú a Generatív MI modellek dekódolási fázisának gyorsításához.
  2. 75%-kal növelte az MX4 FLOPS-ot, felgyorsítva a mixture-of-experts (MoE) feed-forward network (FFN) számításokat, amelyek gyakoriak a nagy nyelvi modellekben.
  3. Hardveres gyorsítást vezetett be a figyelmi és FFN számítások hatékonyabbá tételére, enyhítve a Softmax és FlashAttention-hoz kapcsolódó szűk keresztmetszeteket.
  4. Innovatív, alacsony pontosságú adattípusokat alkalmazott, túllépve az FP8/MX8-on, hogy az FP16/BF16 MX4 FLOPS-ának 6-szorosát biztosítsa, egyedi adattípus-innovációkkal, amelyek megőrzik a modell minőségét és növelik a FLOPS-ot minimális chipterület-igénnyel.

Az MTIA 500, építve a 450 sikerére, további 50%-kal növelte a HBM sávszélességet, és további innovációkat vezetett be az alacsony pontosságú adattípusokban, megerősítve a Meta elkötelezettségét a Generatív MI következtetési teljesítmény határainak feszegetése iránt. Ez a megállíthatatlan fejlődési vágy biztosítja, hogy a Meta MI élményei a legmodernebbek maradjanak.

Ezek a generációk közötti kumulatív fejlesztések látványosak. Az MTIA 300-tól az MTIA 500-ig a HBM sávszélesség lenyűgöző 4,5-szeresére nőtt, míg a számítási FLOPS elképesztő 25-szörös növekedést mutatott (az MTIA 300 MX8-as formátumától az MTIA 500 MX4-es formátumáig). Ez a két éven belüli gyorsulás a Meta sebességi stratégiájának és azon képességének bizonyítéka, hogy folyamatosan fejleszti egyedi szilíciumát. Ez az evolúció kulcsfontosságú az ügynök-alapú MI operationalizálásához és más komplex modellek nagyméretű alkalmazásához.

Íme egy összefoglaló az MTIA család főbb specifikációiról:

JellemzőMTIA 300MTIA 400MTIA 450MTIA 500
Számítási lapka1222
HBM stackek4488
HBM sávszélesség (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
Skálázási tartomány mérete18 eszköz**72 eszköz72 eszköz72 eszköz
Fő optimalizációR&R képzés, alacsony késleltetésű kommunikációÁltalános Generatív MI, versenyképes nyers teljesítményGeneratív MI következtetés, HBM, egyedi alacsony pontosságGeneratív MI következtetés, HBM, egyedi alacsony pontosság

*Néhány gyártó kétirányú sávszélességet jelent. Szorozza meg a táblázatban szereplő értéket kettővel a megfelelő kétirányú sávszélesség megállapításához. **Az MTIA 300-at skála-kiterjesztő hálózattal konfigurálták, magasabb sávszélességgel (200 GB/s) a viszonylag kicsi skálázási tartomány mérete és a cél R&R munkaterhelések miatt.

Ezek a specifikációk rávilágítanak a memória sávszélesség és a számítási teljesítmény drámai javulásaira, bemutatva, hogyan van minden MTIA generáció aprólékosan megtervezve, hogy megfeleljen a jelenlegi és jövőbeli MI alkalmazások, különösen az erőforrásigényes Generatív MI modellek legégetőbb igényeinek.

A Meta rendíthetetlen törekvése az egyedi szilícium megoldásokra az MTIA család révén aláhúzza elkötelezettségét, hogy élvonalbeli MI élményeket nyújtson felhasználók milliárdjainak világszerte. A belső innováció és a stratégiai partnerségek kombinálásával a Meta továbbra is újradefiniálja a skálázható és költséghatékony MI infrastruktúra lehetőségeit.

Gyakran ismételt kérdések

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás