¡Aprende idiomas de forma natural con contenido fresco y auténtico!

Temas populares
Explorar por región
Red Hat y AWS se están asociando para ejecutar el servidor de inferencia de inteligencia artificial de Red Hat en los chips Trainium e Inferentia de AWS, prometiendo un 40% de mejor precio y rendimiento que las GPU, con una vista previa para desarrolladores programada para enero de 2026.
Red Hat y AWS han ampliado su asociación para ejecutar Red Hat's AI Inference Server en los chips Trainium e Inferentia de AWS, ofreciendo hasta un 40% mejor precio-rendimiento que las instancias tradicionales basadas en GPU.
La integración es compatible con OpenShift e incluye un nuevo operador AWS Neuron, la colección Ansible y el plugin vLLM para una implementación de IA simplificada.
La solución, programada para la vista previa de desarrolladores en enero de 2026, tiene como objetivo aumentar la eficiencia y escalabilidad de la IA empresarial.
4 Artículos
Red Hat and AWS are teaming up to run Red Hat’s AI Inference Server on AWS’s Trainium and Inferentia chips, promising 40% better price-performance than GPUs, with a developer preview set for January 2026.