red.diariocritico.com
NVIDIA Domina el Benchmark MLPerf Training v5.1
Ampliar

NVIDIA Domina el Benchmark MLPerf Training v5.1

NVIDIA ha logrado un hito significativo en el ámbito de la inteligencia artificial al dominar por completo la última edición de MLPerf Training v5.1, una serie de pruebas estandarizadas que evalúan el rendimiento del entrenamiento de modelos de IA. La compañía se destacó al obtener los mejores tiempos en todos los siete tests, abarcando áreas como los modelos de lenguaje grande (LLMs), generación de imágenes, sistemas de recomendación, visión por computadora y redes neuronales gráficas.

Este éxito no solo resalta la capacidad superior de los GPUs NVIDIA, sino también la madurez y versatilidad de su conjunto de software CUDA. De hecho, NVIDIA fue la única plataforma que presentó resultados en todas las pruebas, lo que subraya su compromiso con la innovación y el desarrollo continuo.

NVIDIA Blackwell Ultra: Un Salto Cuantitativo

La arquitectura GPU Blackwell Ultra hizo su debut en esta edición del MLPerf Training a través del sistema rack GB300 NVL72. Este sistema ya había mostrado un rendimiento récord en la más reciente ronda de MLPerf Inference. Comparado con su predecesor, la arquitectura Hopper, el sistema basado en Blackwell Ultra logró más de cuatro veces el rendimiento en la preentrenamiento del modelo Llama 3.1 405B y casi cinco veces en el ajuste fino del Llama 2 70B utilizando el mismo número de GPUs.

Estos avances se deben a mejoras arquitectónicas significativas, incluyendo nuevos Tensor Cores que ofrecen 15 petaflops de computación AI NVFP4 y 279GB de memoria HBM3e. Además, se implementaron nuevos métodos de entrenamiento que aprovecharon al máximo el rendimiento computacional proporcionado por esta arquitectura.

Rendimiento Acelerado: NVFP4 Impulsa el Entrenamiento de LLM

Un aspecto clave para los resultados sobresalientes obtenidos fue el uso de precisión NVFP4 durante los cálculos, algo inédito en la historia del MLPerf Training. Esta técnica permite realizar cálculos utilizando menos bits, lo que incrementa la velocidad pero requiere decisiones cuidadosas para mantener la precisión.

Los equipos de NVIDIA innovaron a lo largo de toda la pila tecnológica para adoptar esta precisión FP4 para el entrenamiento de LLM. Los GPUs Blackwell son capaces de realizar cálculos FP4 a una tasa doble respecto a FP8, y con Blackwell Ultra se logra un incremento adicional hasta tres veces más, lo que resulta en un notable aumento del rendimiento computacional en inteligencia artificial.

NVIDIA Blackwell Alcanza Nuevas Cimas

NVIDIA estableció un nuevo récord al entrenar el modelo Llama 3.1 405B en tan solo 10 minutos gracias a más de 5,000 GPUs Blackwell trabajando conjuntamente. Este tiempo es 2.7 veces más rápido que el mejor resultado obtenido anteriormente con Blackwell, resultado del escalado eficiente a más del doble del número anterior y del uso efectivo de precisión NVFP4.

Para ilustrar este aumento en rendimiento por GPU, NVIDIA presentó resultados utilizando 2,560 GPUs Blackwell, alcanzando un tiempo total para entrenar de 18.79 minutos —un avance del 45% respecto a la ronda anterior donde se utilizaron 2,496 GPUs.

Nuevos Récords y Referencias

NVIDIA también estableció récords en dos nuevos benchmarks introducidos en esta ronda: Llama 3.1 8B y FLUX.1. El modelo Llama 3.1 8B reemplaza al antiguo BERT-large y añade una opción moderna y compacta al conjunto de benchmarks; NVIDIA logró entrenarlo en solo 5.2 minutos utilizando hasta 512 GPUs Blackwell Ultra.

Por otro lado, FLUX.1 —un modelo avanzado para generación de imágenes— sustituyó a Stable Diffusion v2; NVIDIA fue la única plataforma que presentó resultados aquí también, logrando un tiempo récord para su entrenamiento de 12.5 minutos con 1,152 GPUs Blackwell.

Un Ecosistema Amplio y Colaborativo

El ecosistema NVIDIA tuvo una participación activa durante esta ronda con contribuciones destacadas provenientes de diversas organizaciones como ASUSTeK, Dell Technologies y Hewlett Packard Enterprise entre otras. Este esfuerzo conjunto demuestra cómo NVIDIA está impulsando innovaciones continuas cada año, aumentando significativamente el rendimiento tanto en preentrenamiento como en post-entrenamiento e inferencia.

Para conocer más sobre los datos de rendimiento de NVIDIA, visite el Centro Hub sobre Rendimiento en Aprendizaje Profundo y las páginas Performance Explorer.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
enviar a reddit

+
0 comentarios