Amazon aprieta el paso con su chip de inteligencia artificial Trainium para competir con Nvidia

Última actualización: 04/12/2025
Autor: Isaac
  • Amazon Web Services refuerza su apuesta por chips propios de IA con Trainium 3 y adelanta detalles de Trainium 4 para competir con Nvidia y Google.
  • Los nuevos servidores con Trainium 3 prometen más de cuatro veces el rendimiento de la generación anterior y hasta un 40 % de mejora en eficiencia energética.
  • La estrategia incluye una inversión de hasta 50.000 millones de dólares en infraestructura de IA, alianzas con Sony y Adobe y grandes despliegues con clientes como Anthropic.
  • AWS combina su silicio propio con GPUs de Nvidia y una oferta ampliada de modelos en Bedrock para reducir costes y dependencia de terceros manteniendo la compatibilidad con el ecosistema actual.

chip de inteligencia artificial de Amazon

Amazon ha decidido pisar el acelerador en la carrera del hardware para inteligencia artificial y está redoblando su apuesta por desarrollar sus propios chips para competir de forma más directa con Nvidia, actual dominador del sector. A través de su división de nube, Amazon Web Services (AWS), la compañía está lanzando nuevas generaciones de procesadores Trainium y reforzando toda su infraestructura de centros de datos para ganar peso en un mercado que se ha convertido en pieza clave de la economía digital.

La estrategia no se limita a un único producto: se trata de un movimiento de gran escala en inversión, alianzas y tecnología, con el que Amazon busca posicionarse como alternativa real para entrenar y ejecutar modelos de IA generativa, reduciendo la dependencia de las GPU de Nvidia pero sin renunciar a ellas. Esta combinación de chips propios, colaboración con terceros y expansión de servicios en la nube pretende atraer tanto a grandes tecnológicas como a empresas europeas que quieren desplegar sistemas de IA a gran escala con un mayor control de costes.

Trainium 3: más rendimiento, menos coste y presión directa sobre Nvidia

En su conferencia anual AWS re:Invent, celebrada en Las Vegas, la compañía presentó la tercera generación de su procesador específico para IA, Trainium 3, como su gran baza para plantar cara a Nvidia en el segmento de chips de entrenamiento de modelos. Según AWS, los nuevos servidores equipados con este chip ofrecen un rendimiento computacional hasta 4,4 veces superior al de la generación anterior, lo que permite entrenar modelos de lenguaje y otras arquitecturas avanzadas en menos tiempo y con menos recursos.

Además del incremento de potencia bruta, Amazon subraya que Trainium 3 aporta una mejora significativa en eficiencia energética, con un consumo aproximadamente un 40 % menor que el de la generación previa para cargas de trabajo comparables. En un contexto en el que el gasto eléctrico de los centros de datos se ha disparado por el auge de la IA generativa, esta reducción no es un detalle menor: afecta tanto a la factura energética de los clientes como a los objetivos de sostenibilidad que la Unión Europea y muchos gobiernos, incluido el español, están reclamando a las grandes tecnológicas.

AWS sostiene que, gracias a esta combinación de más rendimiento y menos consumo, su nuevo chip puede rebajar hasta en un 50 % el coste de entrenar y operar modelos de IA frente a infraestructuras basadas en GPU equivalentes, dominadas por Nvidia. Es una promesa ambiciosa que apunta directamente al principal dolor de cabeza de muchas empresas europeas que están desplegando IA: el precio de la computación en la nube.

La compañía también ha destacado el ritmo de innovación de esta familia de procesadores. Trainium 3 llega apenas un año después de la versión anterior, una cadencia de lanzamiento que se aproxima al compromiso público de Nvidia de actualizar sus chips anualmente. En un sector donde el hardware queda obsoleto con rapidez, esta rapidez de renovación resulta clave para mantener el interés de grandes clientes industriales, financieros o del sector público en Europa.

Trn3 UltraServers y despliegues masivos: el músculo de la infraestructura

El chip por sí solo no basta: lo relevante es cómo se integra en la nube. AWS ha diseñado una nueva generación de servidores, los Trn3 UltraServers, que agrupan el potencial de Trainium 3 en sistemas de muy alta densidad. Estos equipos pueden integrar hasta 144 chips Trainium 3 en un único sistema, alcanzando cientos de petaFLOPS en determinadas precisiones de cálculo, algo crucial para entrenar modelos de gran tamaño sin que los tiempos se disparen.

Esta arquitectura está pensada para reducir la latencia y los cuellos de botella de memoria, dos de los factores que más ralentizan el entrenamiento y la inferencia en IA. Frente a soluciones dispersas en varios servidores, la apuesta de AWS pasa por clústeres muy integrados que permiten avanzar desde la fase de experimentación hasta el despliegue en producción de forma más ágil, algo especialmente relevante para bancos, aseguradoras, compañías industriales o startups europeas que necesitan acortar al máximo sus ciclos de desarrollo.

  Navegadores con IA integrada: el duelo entre Perplexity y OpenAI abre una nueva era digital

Uno de los ejemplos más citados por AWS es el de Anthropic, la startup de IA creadora de Claude, en la que Amazon ha invertido miles de millones de dólares. La compañía ha construido en Estados Unidos un clúster con más de 500.000 chips Trainium de generaciones previas para entrenar los modelos de Anthropic, con planes de alcanzar el millón de procesadores. Este tipo de despliegues sirven a Amazon como vitrina práctica del potencial de su hardware frente a las alternativas de Nvidia o Google.

Aunque estos grandes clústeres de momento se concentran en Estados Unidos, la estrategia de AWS pasa por replicar capacidades similares en sus regiones de Europa, incluida la Unión Europea, tanto para cumplir con la regulación sobre ubicación de datos como para responder a la creciente demanda de potencia de cálculo por parte de administraciones públicas y empresas radicadas en el continente.

Para la propia Amazon, el negocio de Trainium ya mueve varios miles de millones de dólares anuales, dentro de los más de 130.000 millones de ingresos anualizados de AWS. En un momento en el que la computación para IA genera un auténtico “boom” de inversión, la compañía ve en estos chips una pata central de su crecimiento a medio plazo.

Trainium 4 y compatibilidad con Nvidia: competir sin romper puentes

Al mismo tiempo que lanza Trainium 3, Amazon ha adelantado un primer avance de su siguiente generación, Trainium 4, que ya está en desarrollo. La compañía asegura que este futuro chip ofrecerá al menos tres veces el rendimiento de Trainium 3, además de nuevas mejoras en memoria y eficiencia, lo que situaría su hoja de ruta en línea con las grandes apuestas de sus rivales estadounidenses.

Un aspecto llamativo de este próximo procesador es su compatibilidad con la tecnología NVLink de Nvidia, un sistema de interconexión de alta velocidad que se utiliza para agrupar múltiples chips gráficos en configuraciones masivas. En la práctica, esto significa que los clientes podrán combinar chips Trainium de AWS con GPU de Nvidia en un mismo entorno, manteniendo la interoperabilidad con el software y las herramientas ya consolidadas en el mercado.

Lejos de romper con Nvidia, Amazon busca una estrategia de competencia y colaboración a la vez. La empresa sigue ampliando su catálogo de servidores en la nube basados en las GPU más avanzadas del fabricante, orientados al entrenamiento y despliegue de modelos de inteligencia artificial a gran escala. Grandes laboratorios como OpenAI o numerosos clientes corporativos consumen GPU de Nvidia precisamente a través de la infraestructura de AWS.

El mensaje que lanza el equipo directivo de la nube de Amazon es que AWS pretende ser “el mejor lugar para ejecutar GPU de Nvidia”, al tiempo que impulsa una alternativa propia con Trainium para los clientes que quieren ajustar aún más el coste y el consumo energético de sus proyectos. De esta forma, intenta reducir su dependencia de un único proveedor sin cerrar la puerta a quienes ya han estandarizado sus desarrollos sobre el ecosistema de Nvidia.

Firmas de análisis como Jefferies reconocen los avances notables de la hoja de ruta de chips de AWS, aunque señalan que, en términos absolutos, el rendimiento total sigue por detrás de algunas opciones rivales del mercado. Con todo, la combinación de precio, eficiencia y cercanía a los servicios de nube de Amazon puede resultar especialmente atractiva para quienes priorizan el coste total de propiedad frente a exprimir al máximo cada punto de rendimiento.

Inversión multimillonaria e infraestructuras pensadas para la IA

Para sostener este salto en capacidad de cálculo, Amazon ha anunciado un plan de inversión de hasta 50.000 millones de dólares destinado a ampliar su infraestructura de IA y computación de alto rendimiento. Una parte importante de este esfuerzo se dirigirá a la construcción de nuevos centros de datos y a añadir en torno a 1,3 gigavatios de capacidad adicional en instalaciones diseñadas, entre otros, para atender a agencias públicas de Estados Unidos.

Ese tipo de despliegues dan una idea de la escala energética asociada a la IA. Un gigavatio de potencia eléctrica es suficiente, aproximadamente, para abastecer a cientos de miles de hogares, lo que ilustra el impacto que la nueva ola de modelos generativos puede tener sobre la demanda eléctrica global. La mejora de eficiencia energética de chips como Trainium 3 no es solo un argumento comercial, sino un factor de peso en el debate regulatorio europeo sobre sostenibilidad y emisiones.

  La dependencia emocional por IA: ¿Cómo afectan los chatbots nuestro bienestar?

En paralelo a estas inversiones en Estados Unidos, AWS ha ido sumando varios gigavatios de capacidad a su red mundial de centros de datos en el último año, en plena euforia por la IA. Europa es uno de los ejes de expansión, tanto por la fuerte adopción de servicios cloud entre empresas como por las exigencias normativas en materia de protección de datos y residencia de la información. Los nuevos chips de IA formarán parte de la oferta de infraestructura que AWS pone a disposición de clientes europeos desde regiones de datos situadas dentro del Espacio Económico Europeo.

Parte de esta estrategia pasa también por ofrecer lo que AWS denomina “factorías de IA”: soluciones que permiten a gobiernos y grandes compañías desplegar infraestructura de inteligencia artificial con chips de Nvidia y Trainium directamente en sus propios centros de datos, pero operada por Amazon. Este enfoque resulta especialmente interesante para administraciones públicas europeas o entidades financieras que necesitan mantener los datos dentro de sus instalaciones por motivos regulatorios o de soberanía tecnológica.

La compañía es consciente de que el auge de la IA ha despertado dudas sobre una posible burbuja bursátil en torno a las empresas vinculadas al sector. Sin embargo, defiende que la combinación de modelos avanzados, chips específicos y servicios gestionados de alto nivel generará un retorno de la inversión a largo plazo, especialmente cuando se multipliquen los llamados “agentes inteligentes” y aplicaciones prácticas en sectores tradicionales.

Alianzas con Sony y Adobe: usar Trainium para productos reales

Para demostrar que su apuesta no se queda solo en teoría, Amazon está tejiendo acuerdos con grandes compañías que utilizarán su infraestructura de IA, incluidos los nuevos chips Trainium, para transformar servicios y productos. Uno de los ejemplos más destacados es el de Sony Group, que empleará el conjunto de servicios de inteligencia artificial de AWS para crear su denominada Plataforma de Interacción.

El objetivo de Sony con esta plataforma es profundizar la conexión emocional entre fans y creadores de contenido en áreas como la electrónica de consumo, los videojuegos, la música, el cine y la animación. En la práctica, esto se traducirá en experiencias más personalizadas, recomendaciones avanzadas y nuevas formas de interacción, potencialmente disponibles también para usuarios europeos a través de los servicios y dispositivos de la marca.

Otra de las alianzas clave es la firmada con Adobe. La compañía de software utilizará la infraestructura en la nube de AWS y los chips de IA de Amazon, incluido Trainium 3, para entrenar modelos de IA generativa que se integrarán en sus herramientas creativas y de productividad. El acuerdo también busca mejorar las soluciones de atención e interacción con el cliente de Adobe, reforzando sus servicios estrella en marketing digital y experiencia de usuario.

Este tipo de colaboraciones tienen una lectura clara para el mercado europeo: grandes plataformas tecnológicas que ya son ampliamente utilizadas en España y en el resto de la UE, como las soluciones de Adobe en empresas, agencias y medios, terminarán corriendo sobre infraestructuras de IA de AWS, lo que incrementa de forma indirecta la penetración de Trainium en el tejido empresarial del continente.

Además de Sony y Adobe, AWS señala que los nuevos servidores basados en Trainium 3 ya están siendo probados o adoptados por startups de inteligencia artificial, grandes tecnológicas y laboratorios de investigación, que buscan recortar costes de entrenamiento sin renunciar a altos niveles de rendimiento. Aunque la compañía todavía ha hecho públicos pocos nombres más allá de Anthropic, confía en que el éxito de estos primeros casos de uso sirva de imán para otras organizaciones.

Un mercado cada vez más competido: Google, Microsoft y el dominio de Nvidia

El movimiento de Amazon se produce en un contexto de competencia feroz entre grandes tecnológicas por hacerse con el control del hardware de IA. Google presentó recientemente su TPU de séptima generación, conocida como Ironwood, y mantiene conversaciones con Meta para suministrar miles de millones de dólares en potencia de cálculo basada en estos chips, lo que supone un desafío directo a la hegemonía de Nvidia.

  El regreso del Commodore 64: el icono retro vuelve con alma renovada

Microsoft, por su parte, también ha empezado a desarrollar sus propios chips personalizados para IA, al mismo tiempo que refuerza su alianza con OpenAI y continúa utilizando masivamente GPU de Nvidia en su nube Azure. En este tablero de juego, Amazon intenta diferenciarse con una combinación de silicio propio (Trainium), GPUs de Nvidia y una gran variedad de modelos a través de su plataforma Bedrock, con la que quiere atraer a empresas que valoran tanto el rendimiento como la flexibilidad de elegir proveedor de modelos.

A día de hoy, Nvidia sigue siendo el actor dominante, con una cuota de mercado estimada entre el 80 y el 90 % en los chips utilizados para entrenar grandes modelos de lenguaje y otras aplicaciones de IA. Esa posición se refleja en su capitalización bursátil, que la sitúa entre las compañías más valiosas del mundo y en el centro de la actual fiebre inversora en inteligencia artificial.

En este escenario, las apuestas de Amazon con Trainium 3 y Trainium 4 buscan reducir el peso relativo de Nvidia en su propia infraestructura y, de paso, ofrecer a los clientes una vía para no depender por completo de un solo fabricante. No se trata de un reemplazo inmediato, sino de ir cimentando un ecosistema alternativo que pueda convivir con las GPU tradicionales.

La batalla no se libra solo en el hardware. Google y Amazon están impulsando sus propios modelos fundacionales y plataformas de servicios de IA, mientras Microsoft se apoya en su estrecha relación con OpenAI. Las empresas europeas, que cada vez más buscan soberanía digital y diversificación de proveedores, observan con atención qué combinación de chips, modelos y servicios puede adaptarse mejor a sus necesidades sin bloquearlas en un único ecosistema.

Bedrock, modelos Nova y factorías de IA: el software como palanca

Junto al hardware, AWS está reforzando el lado software de su oferta de IA. Su plataforma Amazon Bedrock, que permite acceder a múltiples modelos fundacionales desde un mismo servicio gestionado, ha incorporado recientemente 18 nuevos modelos abiertos, incluyendo alternativas europeas como las de la francesa Mistral. Una parte relevante de las tareas de inferencia en Bedrock ya se ejecuta sobre chips Trainium, lo que ayuda a reducir costes y dependencia de Nvidia.

En paralelo, Amazon ha anunciado mejoras en su familia de modelos propia, Nova. La nueva generación, Nova 2, incluye variantes como Omni, capaces de recibir entradas de texto, imagen, voz o vídeo y responder de forma multimodal. Aunque estos modelos no siempre encabezan los rankings de pruebas estandarizadas, la compañía insiste en que su relación rendimiento-precio en escenarios reales es su principal argumento para convencer a los clientes.

Para facilitar la personalización, AWS ha presentado Nova Forge, una herramienta que permite a organizaciones avanzadas tomar versiones de los modelos Nova antes de completar su entrenamiento y adaptarlos con datos propios. Empresas como Reddit ya están utilizando este enfoque para construir modelos especializados, por ejemplo, en la detección de contenidos que vulneran políticas de seguridad en sus plataformas.

Estas capacidades se complementan con la oferta de factorías de IA mencionada anteriormente, pensada para gobiernos y grandes corporaciones que quieren desplegar infraestructuras de IA en sus instalaciones, pero gestionadas por AWS. La combinación de chips Trainium, GPU de Nvidia y modelos accesibles desde Bedrock apunta a un enfoque híbrido que puede adaptarse tanto a necesidades de soberanía de datos como a entornos más abiertos.

Para clientes en España y en el resto de Europa, este ecosistema supone la posibilidad de acceder a modelos de IA punteros sin tener que construir toda la infraestructura desde cero, apoyándose en la red global de centros de datos de AWS, pero manteniendo opciones de residencia de datos y cumplimiento regulatorio alineadas con el marco europeo.

La nueva generación de chips Trainium, la expansión de Bedrock, las factorías de IA y las grandes inversiones en centros de datos muestran que Amazon quiere jugar un papel protagonista en la próxima ola de inteligencia artificial. Su apuesta pasa por ofrecer infraestructura más eficiente en coste y energía, sin cerrar la puerta a Nvidia ni a otros socios tecnológicos, y tratando de posicionarse como un socio de referencia para empresas y administraciones, también en España y en el resto de Europa, que quieren aprovechar la IA sin quedar atadas a una única pieza del engranaje.

AWS en Gartner Magic Quadrant
Artículo relacionado:
AWS en el Gartner Magic Quadrant: liderazgo en servicios cloud