Code Velocity
IA Empresarial

Los chips MTIA de Meta escalan la IA para miles de millones

·7 min de lectura·Meta·Fuente original
Compartir
Chips de IA MTIA de Meta en una placa de servidor en un rack de centro de datos

Escalando Experiencias de IA con los Chips MTIA de Meta

Cada día, miles de millones de personas en las diversas plataformas de Meta interactúan con una miríada de funciones impulsadas por IA, desde recomendaciones de contenido personalizadas hasta asistentes de IA avanzados. El desafío subyacente para Meta, y de hecho para la industria, reside en implementar y mejorar continuamente estos sofisticados modelos de IA a escala global, todo ello manteniendo una eficiencia de costes óptima. Esta exigente tarea de infraestructura se aborda con la inversión estratégica de Meta en soluciones flexibles y en continua evolución, siendo el centro de las cuales sus chips de IA diseñados a medida: la familia Meta Training and Inference Accelerator (MTIA).

Aunque comprometidos con un portfolio de silicio diverso que aprovecha soluciones tanto internas como externas, los chips MTIA, desarrollados en estrecha colaboración con Broadcom, son un componente indispensable de la estrategia de infraestructura de IA de Meta. Estos aceleradores propios son cruciales para impulsar de manera rentable las experiencias de IA que llegan a miles de millones, adaptándose constantemente al panorama en rápida evolución de los modelos de IA.

La Evolución Iterativa de los Chips MTIA de Meta

El panorama de los modelos de IA se encuentra en un estado de flujo perpetuo, evolucionando a un ritmo que a menudo supera los ciclos de desarrollo de chips tradicionales. Reconociendo que los diseños de chips basados en cargas de trabajo proyectadas pueden quedar obsoletos para cuando el hardware llega a producción, Meta ha adoptado una innovadora 'estrategia de velocidad' para MTIA. En lugar de largos períodos de desarrollo especulativo, Meta adopta un enfoque iterativo donde cada generación de MTIA se construye sobre la anterior. Esto implica el uso de 'chiplets' modulares, la incorporación de las últimas percepciones sobre las cargas de trabajo de IA y el despliegue de nuevas tecnologías de hardware en una cadencia significativamente más corta. Este bucle de retroalimentación más estrecho asegura que el silicio personalizado de Meta se mantenga estrechamente alineado con las demandas dinámicas de los modelos de IA, fomentando una adopción más rápida de los nuevos avances.

Meta ya ha detallado las dos primeras generaciones, MTIA 100 y MTIA 200, en artículos académicos. Basándose en esta fundación, Meta ha acelerado el desarrollo para introducir cuatro nuevas generaciones sucesivas: MTIA 300, 400, 450 y 500. Estos chips ya están en producción o están programados para un despliegue masivo en 2026 y 2027. Esta rápida sucesión ha permitido a Meta expandir significativamente la cobertura de cargas de trabajo de MTIA, pasando de la inferencia inicial de clasificación y recomendación (R&R) al entrenamiento de R&R, cargas de trabajo generales de IA Generativa (GenAI) e inferencia de GenAI altamente optimizada.

MTIA 300: Sentando las Bases para las Cargas de Trabajo de IA

El MTIA 300 marcó un paso fundamental en el camino de Meta con el silicio personalizado. Inicialmente optimizado para modelos R&R, que eran las cargas de trabajo dominantes de Meta antes del auge de GenAI, sus bloques de construcción arquitectónicos establecieron una base sólida para los chips posteriores. Las características distintivas clave del MTIA 300 incluyen 'chiplets' NIC integrados, motores de mensajes dedicados para descargar colectivos de comunicación y capacidades de cómputo cercanas a la memoria diseñadas para colectivos basados en reducción. Estos componentes de comunicación de baja latencia y alto ancho de banda demostraron ser fundamentales para permitir una inferencia y un entrenamiento eficientes de GenAI en las generaciones posteriores.

El MTIA 300 comprende un 'chiplet' de cómputo, dos 'chiplets' de red y varias pilas de memoria de alto ancho de banda (HBM). Cada 'chiplet' de cómputo presenta una cuadrícula de elementos de procesamiento (PEs), diseñados estratégicamente con PEs redundantes para mejorar el rendimiento. Cada PE es una unidad sofisticada que contiene dos núcleos vectoriales RISC-V, un Motor de Producto Escalar para la multiplicación de matrices, una Unidad de Función Especial para activaciones y operaciones elemento a elemento, un Motor de Reducción para la acumulación y comunicación entre PEs, y un motor DMA para el movimiento eficiente de datos dentro de la memoria caché local. Este intrincado diseño subrayó el compromiso de Meta de crear una solución altamente eficiente y rentable para sus tareas centrales de IA.

MTIA 400: Logrando un Rendimiento Competitivo en GenAI

Con el auge sin precedentes de la IA Generativa, Meta evolucionó rápidamente el MTIA 300 hacia el MTIA 400 para proporcionar un soporte robusto para las cargas de trabajo de GenAI junto con sus capacidades R&R existentes. El MTIA 400 representa un salto significativo, ofreciendo un 400% más de FLOPS FP8 y un aumento del 51% en el ancho de banda HBM en comparación con su predecesor. Mientras que el MTIA 300 se centró en la rentabilidad, el MTIA 400 fue diseñado para ofrecer un rendimiento bruto competitivo con los aceleradores de IA comerciales líderes.

Esto se logra combinando dos 'chiplets' de cómputo para duplicar efectivamente la densidad de cómputo y soportando versiones mejoradas de MX8 y MX4, formatos cruciales de baja precisión para una inferencia eficiente de GenAI. Un solo rack equipado con 72 dispositivos MTIA 400, interconectados a través de un 'backplane' conmutado, forma un potente dominio de escalado vertical. Estos sistemas son compatibles con racks avanzados de refrigeración líquida asistida por aire (AALC), lo que facilita el despliegue rápido incluso en centros de datos heredados, lo que demuestra el enfoque práctico de Meta para escalar su infraestructura de IA a nivel global.

MTIA 450 y 500: Especializados para la Inferencia de GenAI

Anticipando el continuo crecimiento exponencial en la demanda de inferencia de GenAI, Meta refinó aún más el MTIA 400, lo que llevó al desarrollo del MTIA 450 y, posteriormente, del MTIA 500. Estas generaciones están específicamente optimizadas para los desafíos únicos de la inferencia de GenAI, centrándose en avances críticos en memoria y cómputo.

MTIA 450 logró avances significativos al:

  1. Duplicar el ancho de banda HBM con respecto a la versión anterior, lo cual es crucial para acelerar la fase de decodificación en los modelos GenAI.
  2. Aumentar los FLOPS MX4 en un 75%, acelerando los cálculos de la red 'feed-forward' (FFN) de mezcla de expertos (MoE) comunes en grandes modelos de lenguaje.
  3. Introducir aceleración de hardware para hacer más eficientes los cálculos de atención y FFN, aliviando cuellos de botella asociados con Softmax y FlashAttention.
  4. Innovar en tipos de datos de baja precisión, yendo más allá de FP8/MX8 para ofrecer 6 veces los FLOPS MX4 de FP16/BF16, con innovaciones de tipos de datos personalizados que preservan la calidad del modelo y aumentan los FLOPS con un impacto mínimo en el área del chip.

MTIA 500, basándose en el éxito del 450, aumentó aún más el ancho de banda HBM en un 50% adicional e introdujo más innovaciones en tipos de datos de baja precisión, reforzando el compromiso de Meta de superar los límites del rendimiento de inferencia de GenAI. Este implacable impulso de mejora asegura que las experiencias de IA de Meta se mantengan a la vanguardia.

Los avances acumulativos a lo largo de estas generaciones son notables. Desde MTIA 300 hasta MTIA 500, el ancho de banda HBM ha aumentado un impresionante 4.5x, mientras que los FLOPS de cómputo han visto un asombroso aumento de 25x (desde MX8 del MTIA 300 hasta MX4 del MTIA 500). Esta rápida aceleración en dos años es un testimonio de la estrategia de velocidad de Meta y su capacidad para mejorar continuamente su silicio personalizado. Esta evolución es fundamental para operacionalizar la IA agencial y otros modelos complejos a escala.

Aquí hay un desglose de las especificaciones clave de la familia MTIA:

CaracterísticaMTIA 300MTIA 400MTIA 450MTIA 500
Die de cómputo1222
Pilas HBM4488
Ancho de banda HBM (GB/s)*100151302453
MX8 FLOPS (TFLOPS)100400400400
MX4 FLOPS (TFLOPS)N/A200350500
Tamaño del dominio 'scale-up'18 dispositivos**72 dispositivos72 dispositivos72 dispositivos
Optimización ClaveEntrenamiento R&R, comunicación de baja latenciaGenAI general, rendimiento bruto competitivoInferencia GenAI, HBM, baja precisión personalizadaInferencia GenAI, HBM, baja precisión personalizada

*Algunos proveedores reportan el ancho de banda bidireccional. Multiplique el valor de la tabla por dos para obtener el ancho de banda bidireccional correspondiente. **El MTIA 300 está configurado con una red 'scale-out' con mayor ancho de banda (200 GB/s) debido a su tamaño de dominio 'scale-up' relativamente pequeño y las cargas de trabajo R&R objetivo.

Estas especificaciones resaltan las dramáticas mejoras en el ancho de banda de la memoria y la potencia de cómputo, demostrando cómo cada generación de MTIA está meticulosamente diseñada para abordar las demandas más apremiantes de las aplicaciones de IA actuales y futuras, particularmente los modelos GenAI que requieren muchos recursos.

La incansable búsqueda de Meta de soluciones de silicio personalizadas a través de la familia MTIA subraya su compromiso de ofrecer experiencias de IA de vanguardia a miles de millones de usuarios en todo el mundo. Al combinar la innovación interna con asociaciones estratégicas, Meta continúa redefiniendo las posibilidades de una infraestructura de IA escalable y rentable.

Preguntas Frecuentes

What are Meta MTIA chips and what is their purpose?
Meta Training and Inference Accelerator (MTIA) chips are custom-designed AI accelerators developed by Meta in partnership with Broadcom. Their primary purpose is to power the vast array of AI-driven experiences across Meta's platforms for billions of users. This includes everything from personalized recommendations (R&R) to advanced Generative AI (GenAI) assistants. By developing its own silicon, Meta aims to cost-effectively scale AI workloads, maintain flexibility, and optimize performance for its specific infrastructure needs, ensuring continuous innovation in AI hardware development.
How many generations of MTIA chips has Meta developed in recent years?
Meta has rapidly accelerated MTIA development, introducing four successive generations in under two years: MTIA 300, MTIA 400, MTIA 450, and MTIA 500. These chips have either already been deployed or are scheduled for mass deployment in 2026 or 2027. This rapid iteration showcases Meta's 'velocity strategy,' designed to keep pace with the extraordinarily fast evolution of AI models and ensure their hardware remains aligned with current and future workload demands, expanding beyond initial R&R tasks to encompass general GenAI and specialized GenAI inference.
What is Meta's 'velocity strategy' for AI chip development?
Meta's 'velocity strategy' is an iterative approach to AI chip development that contrasts with traditional, longer chip design cycles. Recognizing that AI models evolve faster than typical hardware development, Meta designs each MTIA generation to build on the last using modular chiplets. This strategy incorporates the latest AI workload insights and hardware technologies, enabling deployment on a shorter cadence. This tighter feedback loop ensures Meta's custom hardware remains closely aligned with evolving AI models, facilitating faster adoption of new technologies and maintaining optimal performance and cost-efficiency.
How do the newer MTIA chips (400, 450, 500) support Generative AI workloads?
As GenAI surged, MTIA chips evolved significantly to support these demanding workloads. MTIA 400 enhanced support for GenAI with 400% higher FP8 FLOPS and increased HBM bandwidth. MTIA 450 specifically optimized for GenAI inference by doubling HBM bandwidth, increasing MX4 FLOPS by 75%, introducing hardware acceleration for attention and FFN computations, and innovating with custom low-precision data types. MTIA 500 further improved on this, increasing HBM bandwidth by an additional 50% and introducing more low-precision innovations, directly addressing the compute and memory demands of complex GenAI models.
What are the key performance advancements from MTIA 300 to MTIA 500?
The MTIA chip family has seen remarkable advancements from the 300 series to the 500 series in less than two years. The HBM bandwidth has increased by 4.5 times, significantly boosting memory access speed crucial for large AI models. The compute FLOPS (Floating Point Operations Per Second) have seen an astounding 25-fold increase, particularly from MTIA 300's MX8 to MTIA 500's MX4 formats. These dramatic improvements underscore Meta's ability to rapidly enhance its custom silicon's raw processing power and data handling capabilities to meet the escalating demands of advanced AI models.
Why is High-Bandwidth Memory (HBM) important for GenAI inference performance?
High-Bandwidth Memory (HBM) is critically important for Generative AI (GenAI) inference performance because GenAI models, especially large language models (LLMs), typically have massive parameter counts and require extensive memory bandwidth to efficiently retrieve and process these parameters during inference. The decoder step in GenAI inference, which generates tokens sequentially, is often bottlenecked by memory access rather than raw compute. Doubling or significantly increasing HBM bandwidth, as seen in MTIA 450 and 500, directly translates to faster token generation, lower latency, and higher throughput, making the AI experiences more responsive and efficient for users.

Mantente Actualizado

Recibe las últimas noticias de IA en tu correo.

Compartir