¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Tocar para traducir - grabación

Explorar por región

flag Nvidia puede debutar un chip AI con SRAM en el chip en GTC 2026 para reducir la latencia, pero SRAM no reemplazará a HBM pronto.

flag Nvidia podría introducir un nuevo chip de inferencia de IA en GTC 2026 utilizando SRAM en el chip en lugar de HBM externo para reducir la latencia y el movimiento de datos. flag El diseño integra grandes bloques SRAM directamente en el chip, potencialmente aumentando el rendimiento para cargas de trabajo de baja latencia como la computación de borde. flag Sin embargo, SRAM es mucho más costosa y requiere mucho más espacio que DRAM, lo que limita su uso a funciones de caché pequeñas y de alta velocidad en lugar de reemplazar HBM para tareas de IA a gran escala. flag Los expertos dicen que SRAM no desplazará a HBM o DRAM en el corto plazo, ya que los tres probablemente coexistirán en una jerarquía de memoria por capas. flag Se espera que el cambio sea gradual, con los principales fabricantes de memorias como Samsung y SK hynix manteniendo el dominio del mercado.

3 Artículos