Regístrate en Bitget y obtén hasta 100 USDT en bonos completando simples tareas. Oferta por tiempo limitado.
El avance de la inteligencia artificial de alto rendimiento suma un nuevo protagonista con los sistemas Vera Rubin de próxima generación desarrollados por Nvidia.
Según estimaciones recientes, estas plataformas requerirán millones de terabytes de capacidad SSD en los próximos años, una demanda que podría agravar la ya delicada situación de abastecimiento en el mercado global de memorias NAND.
Vera Rubin y el impacto en la memoria
De acuerdo con proyecciones de analistas de Citi, cada sistema de servidor Vera Rubin necesitará alrededor de 1.152 terabytes de almacenamiento SSD NAND para sostener cargas avanzadas de inteligencia artificial.
Además, si se consideran los envíos estimados para 2026 y 2027, de 30.000 y 100.000 unidades respectivamente, la demanda acumulada alcanzaría los 34.6 millones de terabytes en 2026 y podría escalar hasta los 115.2 millones de terabytes en 2027.
En términos de impacto, estas cifras representan aproximadamente el 2,8% de la demanda global prevista de NAND para 2026 y el 9,3% en 2027, una proporción significativa atribuible a un único ecosistema de hardware.
Este crecimiento estructural, por su magnitud, tiene el potencial de intensificar la escasez global de NAND, con efectos directos sobre los precios de los SSD y de otros componentes de memoria, tanto en el segmento de consumo como en el empresarial.
La presión sobre el ecosistema tecnológico
El impacto de Vera Rubin no se limita a su generación actual, ya que Nvidia prepara arquitecturas futuras como Rubin Ultra y Feynman, que elevarán aún más las exigencias de almacenamiento y memoria.
En paralelo, la comunidad tecnológica, presente en eventos como CES 2026, comienza a percibir una presión creciente sobre la DRAM y anticipa una posible crisis en el mercado de NAND, marcada por el encarecimiento de los SSD y por una competencia cada vez más intensa entre sectores para acceder a recursos limitados.
En términos de infraestructura, cada rack de servidores Vera Rubin NVL72 podría requerir hasta 16 terabytes de NAND por GPU, lo que daría lugar a configuraciones superiores a los 1.100 terabytes por servidor.
Bajo este escenario, la próxima ola de inteligencia artificial demandará una capacidad de almacenamiento masiva y podría impulsar un nuevo ciclo alcista en los precios de la memoria flash.
El rol de Nvidia en la próxima escasez de memorias
Si la demanda mantiene el ritmo proyectado, impulsada en gran medida por las arquitecturas de Nvidia, el sector tecnológico podría enfrentarse a tensiones de suministro y a una escalada de costos sin precedentes.
Ante este contexto, los fabricantes de memorias, los proveedores de servicios en la nube y las compañías centradas en inteligencia artificial deberán replantear sus estrategias para absorber el crecimiento de la demanda sin comprometer la eficiencia ni trasladar incrementos excesivos a los precios finales.
En paralelo, los consumidores podrían comenzar a percibir subas en el costo de los SSD, los sistemas de almacenamiento y otros dispositivos electrónicos, como reflejo de la presión ejercida por los grandes actores tecnológicos a lo largo de toda la cadena de valor.
Este escenario abre interrogantes sobre la sostenibilidad del actual ritmo de expansión de la inteligencia artificial y sobre la capacidad de la industria para adaptarse a una etapa en la que el almacenamiento masivo se vuelve tan estratégico como la propia capacidad de cómputo.



