La fiebre de la memoria para Inteligencia Artificial dispara las previsiones de Samsung y SK hynix para 2027

La carrera global por la Inteligencia Artificial (IA) está reescribiendo el guion de la industria de los semiconductores, y hay un segmento que se ha convertido en un auténtico cuello de botella: la memoria. En ese contexto, nuevas estimaciones de analistas han puesto el foco en dos gigantes surcoreanos —Samsung Electronics y SK hynix— con proyecciones que, por magnitud, resultan difíciles de ignorar.

Según previsiones difundidas en medios financieros asiáticos a partir de estimaciones de Morgan Stanley Research, el beneficio operativo de Samsung podría situarse en torno a 317 billones de wones en 2027, mientras que SK hynix rondaría los 225 billones de wones. En conjunto, el cálculo apunta a más de 542 billones de wones de beneficio operativo combinado, una cifra que en euros o dólares —dependiendo del tipo de cambio— se traduce en cientos de miles de millones y alimenta un debate recurrente en los mercados: ¿es un pico coyuntural o el inicio de un “superciclo” de memoria ligado a la IA?

Qué hay detrás de unas cifras tan agresivas

La explicación no está en los smartphones ni en los portátiles, sino en los centros de datos. El auge de la IA generativa, los modelos multimodales y la necesidad de inferencia a gran escala han disparado la demanda de memoria DRAM avanzada y, sobre todo, de HBM (High Bandwidth Memory), la memoria de alto ancho de banda que acompaña a las GPU y aceleradores en cargas de entrenamiento y, cada vez más, de inferencia.

Las propias compañías han advertido de un escenario de tensión prolongada. Samsung y SK hynix han señalado que la escasez de chips de memoria podría extenderse hasta 2027, en un entorno en el que la inversión en infraestructura de IA presiona la cadena de suministro y mantiene precios y márgenes elevados. La señal llega también desde la industria de equipos: Applied Materials, uno de los grandes proveedores de maquinaria para fabricar chips, ha ligado su perspectiva de negocio al tirón de la IA y al empuje de la memoria, hablando abiertamente de escasez global y de un ciclo inversor al alza.

Samsung: el salto estaría en la división de semiconductores (y en memoria)

El detalle de las previsiones revisadas sugiere que el motor del giro estaría en la unidad de semiconductores de Samsung (y, dentro de ella, memoria). Para 2027, la estimación eleva el margen operativo del grupo hasta el entorno del 49 %, con una subida especialmente intensa en los números asociados a semiconductores.

Además, Samsung ha añadido leña al relato con movimientos industriales recientes. La compañía ha anunciado el arranque de la producción en masa de HBM4, una generación clave para la nueva oleada de aceleradores de IA. Ese avance se produce en un mercado hipercompetitivo —con SK hynix y Micron también empujando—, pero en el que ser el primero en volumen y certificaciones con clientes estratégicos puede marcar la diferencia.

SK hynix: márgenes muy altos en DRAM y HBM

En el caso de SK hynix, el mensaje es aún más directo: su exposición a DRAM y HBM la coloca en el centro del ciclón de la IA. Las previsiones revisadas sitúan su margen operativo en 2027 alrededor del 74 %, con el bloque de DRAM (incluida HBM) como columna vertebral del crecimiento.

En paralelo, los resultados recientes de la compañía ya han reflejado la tendencia: SK hynix ha venido encadenando cifras récord, impulsada por la demanda de memoria vinculada a IA y por un mercado donde la disponibilidad manda. En un sector históricamente cíclico, la clave está en si la combinación de IA + centros de datos + nuevas arquitecturas mantiene la presión lo suficiente como para sostener precios durante años.

La comparación incómoda: beneficios frente a tamaño bursátil

La parte más llamativa del debate no es solo el volumen de beneficios proyectado, sino el contraste con el tamaño bursátil relativo y con gigantes tecnológicos estadounidenses. Si se toma como referencia el tipo de cambio reciente en torno a 1.440 wones por dólar, esas cifras de beneficio operativo para 2027 equivaldrían aproximadamente a unos 220.000 millones de dólares para Samsung y unos 156.000 millones de dólares para SK hynix (cálculos aproximados sujetos a variación de divisa).

Para ponerlo en perspectiva: en el ejercicio 2025, Apple registró un beneficio operativo de 133.050 millones de dólares, y Alphabet (Google) reportó 129.039 millones de dólares. La suma de ambas (262.089 millones) quedaría, en ese escenario, por debajo del total combinado proyectado para los dos fabricantes surcoreanos.

Aun así, el mercado suele descontar un factor clave: la memoria ha sido tradicionalmente un negocio de ciclos bruscos. La pregunta, por tanto, no es solo “cuánto pueden ganar”, sino cuánto tiempo pueden sostenerlo sin que una expansión de capacidad, un frenazo macro o un cambio tecnológico presione precios y márgenes.

¿Memoria como “nuevo petróleo” de la IA?

El argumento que se abre paso entre inversores es que la memoria —y especialmente la HBM— se está convirtiendo en un recurso crítico, casi estratégico, para desplegar IA a escala. Si la GPU fue el símbolo del boom, la memoria empieza a parecer su limitación práctica: sin suficiente HBM/DRAM avanzada, los aceleradores no rinden y los proyectos se encarecen.

Eso no significa que el escenario esté garantizado. La industria sigue expuesta a riesgos clásicos: aceleración de inversión que termine en sobrecapacidad, presión geopolítica sobre cadenas de suministro, competencia agresiva y posibles ajustes de demanda si el gasto en IA se racionaliza. Pero, a corto plazo, el mercado está leyendo una idea muy concreta: la IA no solo necesita cómputo, también necesita memoria… y mucha.


Preguntas frecuentes

¿Qué es la memoria HBM y por qué es tan importante para la Inteligencia Artificial?
La HBM es memoria de alto ancho de banda apilada en 3D que se integra cerca del procesador o GPU. Es clave en IA porque alimenta de datos a los aceleradores con menos latencia y más rendimiento que memorias convencionales.

¿Por qué se habla de escasez de memoria hasta 2027?
Porque la demanda asociada a centros de datos de IA está creciendo más rápido que la capacidad industrial disponible, y ampliar fábricas y rendimientos de nuevas generaciones (como HBM4) lleva tiempo y mucha inversión.

¿Qué diferencia a Samsung y SK hynix en el mercado de memoria para centros de datos?
Ambas compiten en DRAM y HBM, pero suelen diferenciarse por tiempos de despliegue, cuotas con clientes clave, certificaciones y ritmo de industrialización de nuevas generaciones, además de su capacidad de producción y eficiencia.

¿Cómo afecta este ciclo a empresas que compran servidores y montan infraestructura de IA?
Puede traducirse en precios más altos y plazos más ajustados para componentes críticos (DRAM/HBM), obligando a planificar compras con más antelación, optimizar configuraciones y vigilar el coste total de propiedad en proyectos de IA.

vía: X

Scroll al inicio