Microsoft presenta Maia 200, el chip con el que quiere reducir su dependencia de Nvidia en la nube

Última actualización: 30/01/2026
Autor: Isaac
  • Maia 200 es el nuevo chip de inferencia de Microsoft para acelerar modelos de IA en Azure y reducir la dependencia de Nvidia.
  • Fabricado en 3 nm por TSMC, integra más de 140.000 millones de transistores y supera los 10 PFLOPS en FP4.
  • Ofrece hasta un 30% más de rendimiento por euro frente al hardware previo de Microsoft y se compara directamente con Trainium y TPU.
  • Se desplegará progresivamente en centros de datos de Azure y dará servicio a Copilot, Foundry y los últimos modelos GPT de OpenAI.

Chip de inteligencia artificial Maia 200

La carrera por dominar la infraestructura de inteligencia artificial en la nube se ha intensificado y Microsoft ha decidido mover ficha con un anuncio que mira de frente a rivales como Nvidia, Amazon y Google. La compañía ha presentado Maia 200, un chip de segunda generación orientado a la inferencia con el que aspira a ganar margen de maniobra en costes, rendimiento y control tecnológico dentro de Azure.

Este nuevo procesador llega dos años después de Maia 100, un primer intento que no llegó a ofrecerse de forma generalizada a clientes. Ahora, con Maia 200, Microsoft quiere ir más allá y convertir este silicio en una pieza clave de su estrategia de nube, desde servicios de productividad como Microsoft 365 Copilot hasta los modelos más avanzados desarrollados junto a OpenAI.

Un chip propio para la inferencia de grandes modelos

Infraestructura de centros de datos con Maia 200

Maia 200 nace como un acelerador específico para la fase de inferencia de la inteligencia artificial, es decir, el momento en el que los modelos ya entrenados generan respuestas, texto, imágenes o cualquier otro tipo de salida en tiempo real. Es justo ahí donde se concentran millones de peticiones diarias y donde los costes operativos se disparan.

Microsoft describe Maia 200 como el “sistema de inferencia más eficiente” que ha desplegado hasta la fecha. El objetivo no es solo ganar potencia bruta, sino recortar el gasto por consulta y por modelo ejecutado, algo especialmente relevante en un contexto en el que la demanda de servicios de IA crece a gran velocidad en empresas europeas, administraciones públicas y grandes plataformas digitales.

En términos prácticos, la compañía asegura que un nodo basado en Maia 200 puede ejecutar los modelos más grandes disponibles actualmente y aún dejar margen para versiones todavía más ambiciosas que lleguen en los próximos años. Esto es clave para aplicaciones que manejan modelos de lenguaje extensos y sistemas multimodales capaces de tratar texto, imagen, audio o vídeo en paralelo.

La apuesta por un chip propio también responde a un movimiento estratégico: los grandes proveedores de nube quieren dejar de depender por completo de terceros como Nvidia. Igual que Google ha desarrollado sus TPUs y Amazon sus Trainium e Inferentia, Microsoft quiere que Maia 200 sea una pieza central de su catálogo de hardware interno para IA.

Tecnología de 3 nanómetros y más de 140.000 millones de transistores

Detalle del diseño del chip Maia 200

El corazón de Maia 200 está fabricado por Taiwan Semiconductor Manufacturing Co. (TSMC) con su proceso avanzado de 3 nanómetros, uno de los más punteros que se encuentran hoy en producción. Cada chip integra más de 140.000 millones de transistores, una densidad que refleja hasta qué punto se han afinado los bloques dedicados a cálculo y gestión de datos.

  La inteligencia artificial revoluciona la automoción: chips, sensores y ecosistemas inteligentes

En cuanto a cifras de rendimiento, el chip ofrece más de 10 petaFLOPS en precisión FP4 y alrededor de 5 petaFLOPS en FP8, formatos de baja precisión pensados para acelerar la inferencia de modelos de gran tamaño sin disparar el consumo energético. Todo ello dentro de un presupuesto de potencia que se sitúa en el entorno de los 750 vatios por sistema en chip.

Uno de los puntos más destacados es el sistema de memoria. Maia 200 combina 216 GB de memoria HBM3e con un ancho de banda de hasta 7 TB/s junto con 272 MB de SRAM integrada en el propio silicio. Este diseño busca que los datos lleguen al procesador sin cuellos de botella, algo fundamental cuando se manejan modelos con miles de millones de parámetros.

Según Microsoft, este enfoque reduce la necesidad de mover información fuera del chip, lo que se traduce en menor demanda de ancho de banda externo y mejor eficiencia energética. En la práctica, se trata de que los modelos no “hagan cola” esperando datos, una de las causas habituales de pérdida de rendimiento en tareas de IA a gran escala.

La arquitectura de Maia 200 incluye también motores dedicados al movimiento de datos y una interconexión pensada para clústeres con miles de aceleradores. La compañía habla de una red de dos niveles basada en Ethernet estándar, con capas de transporte personalizadas para asegurar operaciones colectivas rápidas y predecibles en grandes despliegues.

Ventaja en rendimiento por coste frente a Amazon y Google

Más allá de los datos técnicos, Microsoft ha querido subrayar un mensaje claro: Maia 200 no solo compite, sino que se compara directamente con Trainium de Amazon y las TPU de Google. En un tono poco habitual, la empresa ha presentado cifras que apuntan a una ventaja notable en determinados escenarios de inferencia.

La compañía asegura que Maia 200 logra tres veces el rendimiento en FP4 del Amazon Trainium de tercera generación y un rendimiento FP8 por encima de la séptima generación de las TPU de Google. Aunque falta ver comparativas independientes, el mensaje va dirigido tanto al mercado como a sus propios clientes en la nube.

En el plano económico, Microsoft sostiene que Maia 200 ofrece hasta un 30% más de rendimiento por dólar (o por euro) frente al hardware más reciente de su propia flota de centros de datos. Esta mejora en la relación coste/rendimiento es uno de los factores que pueden marcar la diferencia en los precios finales de los servicios basados en IA.

Para las empresas europeas que están evaluando migrar cargas de trabajo de IA a la nube, ese tipo de márgenes puede traducirse en servicios más competitivos en precio o en la posibilidad de ejecutar modelos más complejos sin que el presupuesto de infraestructura se dispare. En un contexto de presión sobre los costes energéticos en Europa, este tipo de optimizaciones no es menor.

  Cerebro humano y programación innata: de los organoides al código

En paralelo, Microsoft insiste en que Maia 200 forma parte de una estrategia de diversificación de proveedores de silicio, no de ruptura total con Nvidia. La compañía mantendrá el uso de GPUs de terceros, pero con mayor capacidad para decidir qué cargas se ejecutan sobre hardware propio y cuáles se derivan a socios externos.

Integración en Azure, Copilot y modelos de OpenAI

Maia 200 no se concibe como un producto aislado, sino como un componente más dentro de la infraestructura heterogénea de IA de Azure. El acelerador se utilizará para ejecutar una amplia gama de modelos, empezando por las versiones más recientes de la familia GPT desarrolladas por OpenAI.

La compañía ha señalado que servicios como Microsoft 365 Copilot y la plataforma Foundry se beneficiarán del nuevo chip. En el día a día, esto significa que tareas como la generación de texto en Word, la creación de resúmenes en Outlook o el análisis de datos en Excel podrían apoyarse en inferencias más rápidas y con mejor coste por operación.

El equipo de Microsoft Superintelligence también aprovechará Maia 200 para generar datos sintéticos y llevar a cabo procesos de aprendizaje por refuerzo. Estas técnicas son clave para perfeccionar modelos internos de próxima generación, ajustarlos a dominios específicos y mejorar su comportamiento en contextos corporativos o sectoriales muy concretos, incluidos los que afectan al mercado europeo.

Para alimentar esos casos de uso, el diseño del chip está adaptado a cargas de trabajo de IA a gran escala, donde importa tanto el rendimiento pico como la capacidad de mantener latencias bajas y un uso elevado de los recursos durante largos periodos de tiempo. De lo contrario, los costes se disparan y la experiencia de los usuarios finales se resiente.

Dentro del ecosistema de Azure, Maia 200 se integrará con herramientas de desarrollo y orquestación ya conocidas por empresas y desarrolladores. Microsoft trabaja en kits de desarrollo y accesos tempranos para comunidades académicas y proyectos de código abierto, con la idea de crear un ecosistema de software y librerías optimizado alrededor del nuevo silicio.

Despliegue inicial en centros de datos y expansión futura

En esta primera fase, Maia 200 se está desplegando en la región US Central de Azure, en Iowa, donde ya impulsa servicios internos y algunos proyectos ligados a Microsoft Superintelligence y Foundry. La compañía prevé ampliar su presencia a la región US West 3, cerca de Phoenix (Arizona), y más adelante a otras ubicaciones globales.

Aunque el despliegue inicial se centra en Estados Unidos, el objetivo declarado es que este tipo de hardware termine llegando a otras regiones de Azure, incluidas las europeas, a medida que se validen el comportamiento y la fiabilidad en entornos reales. La compañía suele seguir un enfoque gradual, con pruebas internas intensivas antes de ofrecer este tipo de recursos a clientes de forma masiva.

  Xiaomi presenta en Youpin un mini PC de IA con Ryzen AI Max+ 395

Este despliegue controlado también busca reforzar el control de Microsoft sobre su cadena de suministro de semiconductores avanzados, un asunto especialmente sensible tras las tensiones vividas en los últimos años en el sector. Al contar con chips propios fabricados por TSMC, la empresa puede planificar mejor sus necesidades de capacidad y priorizar servicios estratégicos.

La integración de Maia 200 en los centros de datos de Azure va acompañada de una revisión del diseño de racks y bandejas, pensados para alojar múltiples aceleradores como si fueran “piezas de construcción” dentro de la infraestructura. Este formato modular facilita escalar o reconfigurar clústeres en función de la demanda de cada región.

Para empresas y administraciones europeas que requieren que los datos se mantengan dentro de la UE por cuestiones regulatorias, la extensión de Maia 200 a regiones europeas de Azure será un punto clave. La combinación de cumplimiento normativo local y acceso a hardware de alto rendimiento es uno de los factores que más pesan a la hora de elegir proveedor de nube.

Impacto estratégico en la guerra del silicio para la IA

La presentación de Maia 200 se enmarca en una competencia cada vez más intensa por controlar el silicio que alimenta la inteligencia artificial generativa. Los grandes proveedores de nube han entendido que no basta con ofrecer máquinas de terceros: quien domine el diseño de chips, el software y los servicios finales tendrá más margen tanto tecnológico como económico.

Desde el punto de vista de negocio, desarrollar procesadores propios permite a Microsoft reducir costes estructurales y ganar previsibilidad en su gasto en infraestructura. A largo plazo, esto puede traducirse en precios más ajustados o en la posibilidad de asumir cargas de trabajo más exigentes sin que el modelo económico se resienta.

En términos geopolíticos y de soberanía digital, el control de la infraestructura de IA también se ha vuelto un asunto sensible en Europa. Aunque los chips se fabriquen fuera del continente, el hecho de que proveedores como Microsoft puedan ofrecer entornos de nube europeos con hardware de última generación influye en las decisiones de grandes empresas, instituciones y organismos públicos.

Con Maia 200, la compañía lanza un mensaje claro: quiere estar al nivel —o por delante— de Amazon y Google en cuanto a silicio especializado para IA. No se trata únicamente de entrenar modelos gigantes, sino de hacer que funcionen de forma sostenible, con costes razonables y disponibilidad suficiente para una base de clientes cada vez más amplia.

Mientras se ultiman los detalles de futuros chips como Maia 300, ya en fase de diseño, Microsoft consolida una estrategia en la que hardware, nube y modelos de IA se alinean para sostener la próxima ola de servicios inteligentes. Si la promesa de rendimiento y eficiencia de Maia 200 se mantiene en despliegues globales, el nuevo chip podría convertirse en una pieza clave del panorama de inteligencia artificial en la nube durante los próximos años.