¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Nvidia puede debutar un chip AI con SRAM en el chip en GTC 2026 para reducir la latencia, pero SRAM no reemplazará a HBM pronto.
Nvidia podría introducir un nuevo chip de inferencia de IA en GTC 2026 utilizando SRAM en el chip en lugar de HBM externo para reducir la latencia y el movimiento de datos.
El diseño integra grandes bloques SRAM directamente en el chip, potencialmente aumentando el rendimiento para cargas de trabajo de baja latencia como la computación de borde.
Sin embargo, SRAM es mucho más costosa y requiere mucho más espacio que DRAM, lo que limita su uso a funciones de caché pequeñas y de alta velocidad en lugar de reemplazar HBM para tareas de IA a gran escala.
Los expertos dicen que SRAM no desplazará a HBM o DRAM en el corto plazo, ya que los tres probablemente coexistirán en una jerarquía de memoria por capas.
Se espera que el cambio sea gradual, con los principales fabricantes de memorias como Samsung y SK hynix manteniendo el dominio del mercado.
Nvidia may debut an AI chip with on-chip SRAM at GTC 2026 to cut latency, but SRAM won’t replace HBM soon.