¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
La startup china de inteligencia artificial DeepSeek introduce un nuevo método para hacer que los modelos grandes sean más eficientes, reduciendo los costos e impulsando la escalabilidad.
DeepSeek, una startup china de IA, ha presentado un nuevo método de entrenamiento llamado Manifold-Constrained Hyper-Connections, diseñado para hacer que los grandes modelos de IA sean más eficientes y escalables mientras reducen los costos computacionales y de energía.
La técnica, detallada en un artículo co-escrito por el fundador Liang Wenfeng y publicado en arXiv, aborda la inestabilidad del entrenamiento y los problemas de memoria en modelos anteriores, lo que permite un entrenamiento estable entre 3 mil millones y 27 mil millones de sistemas de parámetros con un mínimo de computación adicional.
Basándose en el trabajo anterior de ByteDance, el enfoque refleja el impulso de China para la innovación de IA a pesar de las restricciones de semiconductores de Estados Unidos.
El lanzamiento alimenta la anticipación para el próximo modelo importante de DeepSeek, posiblemente R2, esperado en torno al Festival de Primavera en febrero.
Chinese AI startup DeepSeek introduces new method to make large models more efficient, reducing costs and boosting scalability.