Arm ha logrado un nuevo hito financiero y estratégico: cuatro trimestres consecutivos superando los 1.000 millones de dólares de ingresos, una racha que consolida su momento más sólido desde que volvió a cotizar y que, además, refuerza una idea que la compañía quiere instalar en el mercado: la Inteligencia Artificial ya no es solo “cloud”, sino un fenómeno distribuido entre centros de datos, edge y dispositivos físicos.
En la carta a accionistas correspondiente al tercer trimestre del ejercicio fiscal 2026 (cerrado el 31 de diciembre de 2025), Arm detalló un crecimiento del 26% interanual, hasta 1.240 millones de dólares. La cifra llega impulsada por dos motores: el negocio de royalties, que marcó récord con 737 millones (+27%), y el bloque de licencias y otros ingresos, que subió a 505 millones (+25%). El mensaje de fondo es claro: no solo se venden más chips con tecnología Arm, sino que Arm está cobrando más valor por chip gracias a acuerdos de mayor calado.
El gran acelerador: Compute Subsystems (CSS), más valor por chip y más control del “pack” completo
Uno de los puntos más relevantes del trimestre fue la evolución de Arm Compute Subsystems (CSS), un enfoque que va más allá de licenciar una CPU “suelta” y que empaqueta bloques y subsistemas completos para acelerar el diseño de chips y reducir complejidad. Arm asegura que la demanda de CSS “sigue superando expectativas” y lo presenta como un viento de cola directo para royalties, porque incrementa la porción de economía que captura por cada silicio comercializado.
Durante el trimestre, la compañía firmó dos licencias CSS destinadas a tablets de edge AI y smartphones, elevando el total a 21 licencias CSS en 12 compañías. Además, Arm indica que cinco clientes ya están enviando chips basados en CSS, con dos de ellos usando su plataforma de segunda generación. Un dato con lectura de industria: los cuatro principales fabricantes Android estarían ya comercializando dispositivos impulsados por CSS.
En la práctica, esto sitúa a Arm en un rol más cercano al de “arquitecto de plataforma” y menos al de proveedor de IP modular. Para los fabricantes, la promesa es reducir ciclos de diseño; para Arm, el premio es capturar más valor por diseño sin necesidad de fabricar nada.
Centros de datos: más núcleos, más eficiencia y una guerra silenciosa por el rendimiento por vatio
Arm también reforzó su narrativa sobre la reconfiguración del centro de datos por la IA. El giro hacia sistemas de IA más “agent-based” —más autónomos y repartidos entre cloud, edge y entornos físicos— está llevando a un tipo de CPU muy concreto: muchos núcleos eficientes, capaces de sostener cargas “always-on” con un coste energético controlado.
En ese contexto, Arm afirmó que sus CPU Neoverse ya han superado los 1.000 millones de núcleos desplegados y que su cuota entre los grandes hyperscalers se espera que se aproxime al 50%. La señal de mercado, según Arm, está en la nueva generación de silicio de tres gigantes:
- AWS con su Graviton de quinta generación, basado en Neoverse CSS V3, que escala hasta 192 núcleos, el doble que la generación anterior citada por la compañía (Graviton4).
- NVIDIA, con su próxima CPU Vera, que sube a 88 núcleos basados en Arm, frente a 72 en la generación Grace.
- Microsoft, con su Cobalt 200, también sobre Neoverse CSS V3, con 132 núcleos (desde 128 en Cobalt 100).
Más allá del número de núcleos, Arm insiste en la idea de diseño de sistema: CPUs Arm combinadas con DPUs y aceleradores para optimizar el conjunto. Pone como ejemplo la integración de AWS Graviton con Nitro DPUs y aceleradores Trainium, o la plataforma de NVIDIA que une sus GPUs con Grace y BlueField DPUs, señalando que el salto a Vera implicaría un aumento de 6 veces en capacidad de cómputo DPU frente a la generación previa citada.
“IA física”: coches, robots y el edge como campo de batalla
Si el centro de datos es la autopista de la IA, el siguiente frente es el mundo real: automoción, robótica, dispositivos y sistemas autónomos. Arm refuerza aquí su argumento de “plataforma común” con base software compartida, latencia predecible y eficiencia energética, algo clave para desplegar soluciones en múltiples formatos sin rehacer todo el stack.
Entre los ejemplos del trimestre, destacan:
- Rivian, que anunció en diciembre de 2025 su Autonomy Computer de tercera generación basado en un procesador propio sobre Arm, y que sería el primer coche de producción citado por Arm en desplegar Armv9.
- El robot humanoide Optimus de Tesla, que la compañía menciona como impulsado por un procesador de IA personalizado basado en Arm.
- El ecosistema de robótica y sistemas autónomos apoyado en plataformas Arm de terceros, citando NVIDIA Jetson Thor y Qualcomm Dragonwing como piezas que refuerzan a Arm como “suelo común” del cómputo para IA física.
- En Chromebooks, Arm señala adopción desde gamas de entrada hasta Chromebook Plus, con un argumento clásico: más horas de batería por su ventaja de rendimiento por vatio frente a x86.
Lo que está diciendo Arm entre líneas
El trimestre no solo habla de ingresos: describe una transición de modelo. Arm quiere ser menos “IP por piezas” y más “plataforma completa” (CSS) para capturar valor en una era donde diseñar chips es más complejo, caro y arriesgado. Al mismo tiempo, la compañía se coloca en el centro del discurso de IA distribuida: desde milivatios hasta gigavatios, del móvil al centro de datos, del coche al robot.
En un mercado que vive tensiones por costes de componentes y donde la IA está alterando prioridades de inversión, Arm llega a 2026 con una ventaja estructural: su tecnología está en casi todas partes, y su estrategia consiste en cobrar más por estar en todas partes.
Preguntas frecuentes
¿Qué significa que Arm tenga “cuatro trimestres consecutivos” por encima de 1.000 millones?
Que la compañía ha consolidado una escala de ingresos sostenida, apoyada tanto en royalties (chips vendidos por terceros) como en licencias de alto valor.
¿Qué son Arm Compute Subsystems (CSS) y por qué importan?
Son subsistemas más integrados que una simple CPU IP. Reducen complejidad de diseño para el cliente y permiten a Arm capturar más valor económico por chip.
¿Por qué la IA está empujando CPUs con más núcleos en centros de datos?
Porque muchas cargas de inferencia y servicios “always-on” priorizan eficiencia energética y escalabilidad de hilos/núcleos, no solo rendimiento pico.
¿Dónde se nota más el avance de Arm fuera del móvil?
En centros de datos (Neoverse, hyperscalers), automoción (chips propios), edge AI y robótica, donde la eficiencia por vatio y una base software común son ventajas clave.
vía: ARM






