¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Tocar para traducir - grabación

Explorar por región

flag La startup china de inteligencia artificial DeepSeek introduce un nuevo método para hacer que los modelos grandes sean más eficientes, reduciendo los costos e impulsando la escalabilidad.

flag DeepSeek, una startup china de IA, ha presentado un nuevo método de entrenamiento llamado Manifold-Constrained Hyper-Connections, diseñado para hacer que los grandes modelos de IA sean más eficientes y escalables mientras reducen los costos computacionales y de energía. flag La técnica, detallada en un artículo co-escrito por el fundador Liang Wenfeng y publicado en arXiv, aborda la inestabilidad del entrenamiento y los problemas de memoria en modelos anteriores, lo que permite un entrenamiento estable entre 3 mil millones y 27 mil millones de sistemas de parámetros con un mínimo de computación adicional. flag Basándose en el trabajo anterior de ByteDance, el enfoque refleja el impulso de China para la innovación de IA a pesar de las restricciones de semiconductores de Estados Unidos. flag El lanzamiento alimenta la anticipación para el próximo modelo importante de DeepSeek, posiblemente R2, esperado en torno al Festival de Primavera en febrero.

7 Artículos

Lecturas adicionales