Microsoft presenta el chip Maia 200, su nuevo acelerador de IA

El nuevo chip de Microsoft promete ejecutar modelos de inteligencia artificial de gran escala con mayor rendimiento y menor costo, reforzando la infraestructura que impulsa servicios como Azure y Microsoft 365 Copilot.

Microsoft anunció el lanzamiento de Maia 200, su acelerador de inteligencia artificial de próxima generación, diseñado específicamente para optimizar la inferencia de modelos de IA a gran escala. Este nuevo desarrollo fortalece la infraestructura de Azure al permitir ejecutar modelos avanzados de forma más rápida, eficiente y rentable, marcando un nuevo hito en la estrategia de silicio propio de la compañía.

Fabricado con el proceso de 3 nanómetros de TSMC, Maia 200 integra más de 140 mil millones de transistores y ha sido diseñado para responder a las crecientes demandas de la inteligencia artificial generativa. De acuerdo con Microsoft, se trata del sistema de inferencia más eficiente que la compañía ha desplegado hasta ahora, con un 30 % más de rendimiento por dólar frente al hardware de última generación de su flota actual.

Un salto en rendimiento para la IA generativa

Maia 200 fue optimizado para modelos que utilizan computación de baja precisión, una tendencia clave en la evolución de los grandes modelos de lenguaje. Cada chip ofrece más de 10 petaFLOPS en precisión FP4 y más de 5 petaFLOPS en FP8, lo que le permite ejecutar sin dificultad los modelos más grandes disponibles hoy, y prepararse para los que vendrán en el futuro.

Además del poder de cómputo, Microsoft puso el foco en uno de los principales cuellos de botella de la IA: el movimiento de datos. Para ello, Maia 200 incorpora un sistema de memoria rediseñado, con 216 GB de HBM3e, 272 MB de SRAM integrada y un ancho de banda de hasta 7 TB/s, lo que se traduce en una generación de tokens más rápida y eficiente.

Según la compañía, este enfoque integral convierte a Maia 200 en uno de los aceleradores más eficientes del mercado, superando en rendimiento FP4 y FP8 a soluciones comparables de otros grandes proveedores de nube.

Diseñado para Azure, Copilot y los modelos del futuro

Maia 200 forma parte de la infraestructura heterogénea de IA de Microsoft y será utilizado para ejecutar múltiples modelos, incluidos los más recientes GPT-5.2 de OpenAI. Su despliegue beneficiará directamente a servicios como Microsoft Foundry y Microsoft 365 Copilot, mejorando la experiencia de los usuarios y la eficiencia operativa.

El acelerador también será clave para el equipo de Microsoft Superintelligence, que lo utilizará en tareas como generación de datos sintéticos y aprendizaje por refuerzo, fundamentales para el desarrollo de modelos internos de próxima generación.

Infraestructura escalable y optimizada para la nube

A nivel de sistemas, Maia 200 introduce una arquitectura de red de dos niveles basada en Ethernet estándar, lo que permite escalar clústeres de hasta 6.144 aceleradores con alta eficiencia, confiabilidad y menores costos energéticos. Dentro de cada bandeja, cuatro aceleradores están completamente interconectados para maximizar el rendimiento en tareas de inferencia intensiva.

Este diseño unificado simplifica la programación, mejora la flexibilidad de las cargas de trabajo y reduce costos operativos, manteniendo un desempeño consistente a escala global en los centros de datos de Azure.

Desarrollo nativo en la nube y rápida adopción

Microsoft destacó que Maia 200 fue desarrollado bajo un enfoque nativo en la nube, validando el sistema completo, desde el chip hasta el centro de datos, incluso antes de la disponibilidad final del silicio. Gracias a este modelo de co-desarrollo, los primeros modelos de IA comenzaron a ejecutarse en Maia 200 apenas días después de la llegada del primer chip.

Actualmente, Maia 200 ya está desplegado en la región US Central de Azure, con próximas implementaciones en US West 3 y otras regiones del mundo en el futuro.

Con Maia 200, Microsoft refuerza su apuesta por una infraestructura de IA propia y multigeneracional, convencida de que el rendimiento, la eficiencia y la escalabilidad del hardware serán factores decisivos en la próxima etapa de la inteligencia artificial a gran escala.

Descubre todos los detalles en español en este enlace: Maia 200: El acelerador de IA diseñado para la inferencia – Source LATAM

Para más información visita el sitio web oficial de Maia 200

Quiero Suscribirme y recibir información

Al completar este formulario, aceptas que los datos proporcionados podrán ser utilizados por Prensario TILA para enviarte noticias, novedades editoriales y comunicaciones comerciales propias, así como información de nuestros clientes y socios. Tus datos serán tratados de forma confidencial y podrás solicitar en cualquier momento la modificación o baja de nuestras listas de contacto.