Code Velocity
IA Empresarial

Els xips MTIA de Meta escalen la IA per a milers de milions

·7 min de lectura·Meta·Font original
Compartir
Xips d'IA MTIA de Meta en una placa de servidor en un bastidor de centre de dades

title: "Els xips MTIA de Meta escalen la IA per a milers de milions" slug: "meta-mtia-scale-ai-chips-for-billions" date: "2026-03-14" lang: "ca" source: "https://ai.meta.com/blog/meta-mtia-scale-ai-chips-for-billions/" category: "IA Empresarial" keywords:

  • Meta
  • MTIA
  • xips d'IA
  • IA Generativa
  • maquinari d'inferència
  • silici personalitzat
  • centres de dades
  • Llama
  • ample de banda HBM
  • tipus de dades de baixa precisió
  • infraestructura d'IA
  • càrregues de treball R&R meta_description: "Els xips MTIA d'IA de Meta evolucionen ràpidament, amb quatre generacions en dos anys, per escalar eficientment les experiències de GenAI i R&R per a milers de milions d'usuaris." image: "/images/articles/meta-mtia-scale-ai-chips-for-billions.png" image_alt: "Xips d'IA MTIA de Meta en una placa de servidor en un bastidor de centre de dades" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Meta schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Què són els xips MTIA de Meta i quin és el seu propòsit?" answer: "Els xips Meta Training and Inference Accelerator (MTIA) són acceleradors d'IA dissenyats a mida desenvolupats per Meta en col·laboració amb Broadcom. El seu propòsit principal és potenciar la gran varietat d'experiències impulsades per IA a través de les plataformes de Meta per a milers de milions d'usuaris. Això inclou des de recomanacions personalitzades (R&R) fins a assistents avançats d'IA Generativa (GenAI). En desenvolupar el seu propi silici, Meta pretén escalar les càrregues de treball d'IA de manera rendible, mantenir la flexibilitat i optimitzar el rendiment per a les seves necessitats d'infraestructura específiques, garantint una innovació contínua en el desenvolupament de maquinari d'IA."
  • question: "Quantes generacions de xips MTIA ha desenvolupat Meta en els darrers anys?" answer: "Meta ha accelerat ràpidament el desenvolupament d'MTIA, introduint quatre generacions successives en menys de dos anys: MTIA 300, MTIA 400, MTIA 450 i MTIA 500. Aquests xips ja s'han desplegat o estan programats per a un desplegament massiu el 2026 o 2027. Aquesta ràpida iteració demostra l'estrategia de 'velocitat' de Meta, dissenyada per mantenir el ritme de l'extraordinària i ràpida evolució dels models d'IA i assegurar que el seu maquinari es mantingui alineat amb les demandes de càrrega de treball actuals i futures, expandint-se més enllà de les tasques inicials de R&R per incloure la inferència general de GenAI i la inferència especialitzada de GenAI."
  • question: "Què és l''estratègia de velocitat' de Meta per al desenvolupament de xips d'IA?" answer: "L''estratègia de velocitat' de Meta és un enfocament iteratiu per al desenvolupament de xips d'IA que contrasta amb els cicles de disseny de xips tradicionals i més llargs. Reconeixent que els models d'IA evolucionen més ràpidament que el desenvolupament de maquinari típic, Meta dissenya cada generació d'MTIA per construir sobre l'anterior utilitzant chiplets modulars. Aquesta estratègia incorpora els últims coneixements de les càrregues de treball d'IA i les tecnologies de maquinari, permetent el desplegament en una cadència més curta. Aquest bucle de retroalimentació més estret assegura que el maquinari personalitzat de Meta es mantingui estretament alineat amb els models d'IA en evolució, facilitant una adopció més ràpida de noves tecnologies i mantenint un rendiment i una rendibilitat òptims."
  • question: "Com donen suport els xips MTIA més nous (400, 450, 500) a les càrregues de treball d'IA Generativa?" answer: "A mesura que la GenAI va créixer, els xips MTIA van evolucionar significativament per donar suport a aquestes càrregues de treball exigents. L'MTIA 400 va millorar el suport per a GenAI amb un 400% més de FLOPS FP8 i un ample de banda HBM augmentat. L'MTIA 450 es va optimitzar específicament per a la inferència de GenAI duplicant l'ample de banda HBM, augmentant els FLOPS MX4 en un 75%, introduint acceleració de maquinari per als càlculs d'atenció i FFN, i innovant amb tipus de dades de baixa precisió personalitzats. L'MTIA 500 va millorar encara més això, augmentant l'ample de banda HBM en un 50% addicional i introduint més innovacions de baixa precisió, abordant directament les demandes de computació i memòria dels models GenAI complexos."
  • question: "Quins són els avenços clau de rendiment des de l'MTIA 300 fins a l'MTIA 500?" answer: "La família de xips MTIA ha experimentat avenços notables des de la sèrie 300 fins a la sèrie 500 en menys de dos anys. L'ample de banda HBM ha augmentat 4,5 vegades, impulsant significativament la velocitat d'accés a la memòria, crucial per als grans models d'IA. Els FLOPS de càlcul (Operacions de Punt Flotant per Segon) han vist un augment sorprenent de 25 vegades, particularment des del format MX8 de l'MTIA 300 fins als formats MX4 de l'MTIA 500. Aquestes millores dràstiques subratllen la capacitat de Meta per millorar ràpidament la potència de processament bruta i les capacitats de gestió de dades del seu silici personalitzat per satisfer les demandes creixents dels models d'IA avançats."
  • question: "Per què és important la Memòria d'Alt Ample de Banda (HBM) per al rendiment de la inferència de GenAI?" answer: "La Memòria d'Alt Ample de Banda (HBM) és de vital importància per al rendiment de la inferència d'IA Generativa (GenAI) perquè els models de GenAI, especialment els grans models de llenguatge (LLM), solen tenir un nombre massiu de paràmetres i requereixen un ample de banda de memòria extens per recuperar i processar eficientment aquests paràmetres durant la inferència. El pas del descodificador en la inferència de GenAI, que genera tokens seqüencialment, sovint es veu limitat per l'accés a la memòria en lloc del càlcul brut. Duplicar o augmentar significativament l'ample de banda HBM, com es veu en els MTIA 450 i 500, es tradueix directament en una generació de tokens més ràpida, una latència més baixa i un major rendiment, fent que les experiències d'IA siguin més sensibles i eficients per als usuaris."

## Escalant Experiències d'IA amb els Xips MTIA de Meta

Cada dia, milers de milions de persones a través de les diverses plataformes de Meta interactuen amb una gran varietat de funcions impulsades per IA, des de recomanacions de contingut personalitzades fins a assistents d'IA avançats. El repte subjacent per a Meta, i de fet per a la indústria, rau en desplegar i millorar contínuament aquests sofisticats models d'IA a escala global, tot mantenint una eficiència de costos òptima. Aquesta exigent tasca d'infraestructura es compleix gràcies a la inversió estratègica de Meta en solucions flexibles i en constant evolució, al centre de les quals hi ha els seus xips d'IA dissenyats a mida: la família Meta Training and Inference Accelerator (MTIA).

Tot i estar compromesa amb una cartera de silici diversa que aprofita solucions tant internes com externes, els xips MTIA, desenvolupats en estreta col·laboració amb Broadcom, són un component indispensable de l'[estratègia d'infraestructura d'IA de Meta](/ca/scaling-ai-for-everyone). Aquests acceleradors propis són crucials per potenciar de manera rendible les experiències d'IA que arriben a milers de milions, adaptant-se constantment al paisatge en ràpida evolució dels models d'IA.

## L'Evolució Iterativa dels Xips MTIA de Meta

El panorama dels models d'IA es troba en un estat de flux perpetu, evolucionant a un ritme que sovint supera els cicles de desenvolupament de xips tradicionals. Reconeixent que els dissenys de xips basats en càrregues de treball projectades poden quedar obsolets quan el maquinari arriba a producció, Meta ha adoptat una innovadora 'estratègia de velocitat' per a MTIA. En lloc de llargs períodes de desenvolupament especulatiu, Meta adopta un enfocament iteratiu on cada generació d'MTIA es construeix sobre l'anterior. Això implica l'ús de *chiplets* modulars, la incorporació dels últims coneixements sobre càrregues de treball d'IA i el desplegament de noves tecnologies de maquinari amb una cadència significativament més curta. Aquest bucle de retroalimentació més estret assegura que el silici personalitzat de Meta es mantingui estretament alineat amb les demandes dinàmiques dels models d'IA, fomentant una adopció més ràpida de nous avenços.

Meta ja ha detallat les dues primeres generacions, MTIA 100 i MTIA 200, en articles acadèmics. A partir d'aquesta base, Meta ha accelerat el desenvolupament per introduir quatre noves generacions successives: MTIA 300, 400, 450 i 500. Aquests xips ja estan en producció o estan programats per a un desplegament massiu el 2026 i el 2027. Aquesta ràpida successió ha permès a Meta expandir significativament la cobertura de càrregues de treball d'MTIA, passant de la inferència inicial de classificació i recomanació (R&R) a l'entrenament de R&R, càrregues de treball generals d'IA Generativa (GenAI) i inferència de GenAI altament optimitzada.

## MTIA 300: Assentant les Bases per a les Càrregues de Treball d'IA

L'MTIA 300 va marcar un pas fonamental en el camí del silici personalitzat de Meta. Inicialment optimitzat per a models R&R, que eren les càrregues de treball dominants de Meta abans de l'auge de la GenAI, els seus blocs de construcció arquitectònics van establir una base robusta per als xips posteriors. Les característiques clau distintives de l'MTIA 300 inclouen *chiplets* NIC integrats, motors de missatges dedicats per descarregar col·lectius de comunicació i capacitats de càlcul properes a la memòria dissenyades per a col·lectius basats en reducció. Aquests components de comunicació de baixa latència i ample de banda elevat van ser instrumentals per permetre una inferència i entrenament eficients de GenAI en les generacions posteriors.

L'MTIA 300 consta d'un *chiplet* de càlcul, dos *chiplets* de xarxa i diverses piles de Memòria d'Alt Ample de Banda (HBM). Cada *chiplet* de càlcul presenta una quadrícula d'elements de processament (PEs), dissenyats estratègicament amb PEs redundants per millorar el rendiment. Cada PE és una unitat sofisticada que conté dos nuclis vectorials RISC-V, un motor de producte escalar per a la multiplicació de matrius, una unitat de funció especial per a activacions i operacions per element, un motor de reducció per a l'acumulació i la comunicació entre PEs, i un motor DMA per a un moviment de dades eficient dins de la memòria de rascada local. Aquest disseny complex va subratllar el compromís de Meta amb la creació d'una solució altament eficient i rendible per a les seves tasques d'IA principals.

## MTIA 400: Assolint un Rendiment Competitiu en GenAI

Amb l'auge sense precedents de la IA Generativa, Meta va evolucionar ràpidament l'MTIA 300 a l'MTIA 400 per proporcionar un suport robust a les càrregues de treball de GenAI, juntament amb les seves capacitats R&R existents. L'MTIA 400 representa un salt significatiu, oferint un 400% més de FLOPS FP8 i un augment del 51% en l'ample de banda HBM en comparació amb el seu predecessor. Mentre que l'MTIA 300 es va centrar en la rendibilitat, l'MTIA 400 va ser dissenyat per oferir un rendiment brut competitiu amb els principals acceleradors d'IA comercials.

Això s'aconsegueix combinant dos *chiplets* de càlcul per duplicar eficaçment la densitat de càlcul i donant suport a versions millorades de MX8 i MX4, formats crucials de baixa precisió per a una inferència eficient de GenAI. Un únic bastidor equipat amb 72 dispositius MTIA 400, interconnectats mitjançant un *backplane* commutat, forma un potent domini de *scale-up*. Aquests sistemes estan suportats per bastidors avançats de refrigeració líquida assistida per aire (AALC), facilitant un desplegament ràpid fins i tot en centres de dades heretats, mostrant l'enfocament pràctic de Meta per escalar la seva infraestructura d'IA globalment.

## MTIA 450 i 500: Especialitzats per a la Inferència de GenAI

Anticipant el creixement exponencial continuat de la demanda d'inferència de GenAI, Meta va refinar encara més l'MTIA 400, la qual cosa va portar al desenvolupament de l'MTIA 450 i posteriorment de l'MTIA 500. Aquestes generacions estan específicament optimitzades per als reptes únics de la inferència de GenAI, centrant-se en avenços crítics en memòria i càlcul.

**L'MTIA 450** va fer avenços significatius:
1.  **Duplicant l'ample de banda HBM** respecte a la versió anterior, la qual cosa és crucial per accelerar la fase de descodificació en els models de GenAI.
2.  **Augmentant els FLOPS MX4 en un 75%**, accelerant els càlculs de la xarxa de feed-forward (FFN) de mescla d'experts (MoE), comuns en els grans models de llenguatge.
3.  **Introduint acceleració de maquinari** per fer més eficients els càlculs d'atenció i FFN, alleujant els colls d'ampolla associats amb Softmax i FlashAttention.
4.  **Innovant en tipus de dades de baixa precisió**, anant més enllà de FP8/MX8 per oferir 6 vegades els FLOPS MX4 de FP16/BF16, amb innovacions de tipus de dades personalitzats que preserven la qualitat del model i augmenten els FLOPS amb un impacte mínim en l'àrea del xip.

**L'MTIA 500**, basant-se en l'èxit de la 450, va augmentar encara més l'ample de banda HBM en un 50% addicional i va introduir més innovacions en tipus de dades de baixa precisió, reforçant el compromís de Meta amb la superació dels límits del rendiment de la inferència de GenAI. Aquesta recerca incansable de millora assegura que les experiències d'IA de Meta es mantinguin a l'avantguarda.

Els avenços acumulats a través d'aquestes generacions són notables. Des de l'MTIA 300 fins a l'MTIA 500, l'ample de banda HBM ha augmentat un impressionant 4,5x, mentre que els FLOPS de càlcul han experimentat un augment sorprenent de 25x (des de MX8 de l'MTIA 300 fins a MX4 de l'MTIA 500). Aquesta ràpida acceleració en dos anys és un testimoni de l'estratègia de velocitat de Meta i la seva capacitat per millorar contínuament el seu silici personalitzat. Aquesta evolució és fonamental per [operacionalitzar la IA agentiva](/ca/operationalizing-agentic-ai-part-1-a-stakeholders-guide) i altres models complexos a escala.

Aquí teniu un desglossament de les especificacions clau de la família MTIA:

| Característica                 | MTIA 300                                 | MTIA 400                                 | MTIA 450                                 | MTIA 500                                 |
| :----------------------------- | :--------------------------------------- | :--------------------------------------- | :--------------------------------------- | :--------------------------------------- |
| **Matriu de Càlcul**            | 1                                        | 2                                        | 2                                        | 2                                        |
| **Piles HBM**                  | 4                                        | 4                                        | 8                                        | 8                                        |
| **Ample de Banda HBM (GB/s)\*** | 100                                      | 151                                      | 302                                      | 453                                      |
| **FLOPS MX8 (TFLOPS)**         | 100                                      | 400                                      | 400                                      | 400                                      |
| **FLOPS MX4 (TFLOPS)**         | N/A                                      | 200                                      | 350                                      | 500                                      |
| **Mida del Domini de Scale-up** | 18 dispositius**                         | 72 dispositius                           | 72 dispositius                           | 72 dispositius                           |
| **Optimització Clau**          | Entrenament R&R, comunicació de baixa latència | GenAI general, rendiment brut competitiu | Inferència GenAI, HBM, baixa precisió personalitzada | Inferència GenAI, HBM, baixa precisió personalitzada |

\*Alguns proveïdors informen de l'ample de banda bidireccional. Multipliqueu el valor de la taula per dos per obtenir l'ample de banda bidireccional corresponent.
\*\*L'MTIA 300 està configurat amb una xarxa de *scale-out* amb un ample de banda més alt (200 GB/s) a causa de la seva mida de domini de *scale-up* relativament petita i les càrregues de treball R&R objectiu.

Aquestes especificacions destaquen les millores dràstiques en l'ample de banda de memòria i la potència de càlcul, demostrant com cada generació d'MTIA està meticulosament dissenyada per abordar les demandes més urgents de les aplicacions d'IA actuals i futures, particularment els models de GenAI intensius en recursos.

La incansable recerca de solucions de silici personalitzades de Meta a través de la família MTIA subratlla el seu compromís amb l'oferta d'experiències d'IA d'avantguarda a milers de milions d'usuaris a tot el món. Combinant la innovació interna amb associacions estratègiques, Meta continua redefinint les possibilitats d'una infraestructura d'IA escalable i rendible.

Preguntes freqüents

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir