Noticias

Data Centers e Inteligencia Artificial

Data Centers e Inteligencia Artificial
Data Centers e Inteligencia Artificial

Las fábricas de Inteligencia Artificial procesan y refinan montañas de datos para producir inteligencia a partir de una amplia gama de cargas de trabajo que abarcan digital twins, IA, computación de alto rendimiento, gráficos en la nube y juegos.

A partir de 2023 operará una nueva gama de Sistemas de Data Centers para Digital Twins, IA, Computación de Alto Rendimiento, Gráficos en la Nube y Juegos, plataformas que se habilitarán con tecnología de ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro y Wiwynn, entre otros proveedores.

Es en ese periodo cuando los principales fabricantes de computadoras de Taiwán lanzarán la primera ola de sistemas impulsados por el superchip de CPU NVIDIA Grace y el superchip Grace Hopper. Se espera que docenas de modelos de servidores de ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro y Wiwynn estén disponibles.

Los sistemas impulsados por Grace se unirán a x86 y otros servidores basados en Arm para ofrecer a los clientes una amplia gama de opciones para lograr un alto rendimiento y eficiencia en sus data centers.

Ambas tecnologías de superchips NVIDIA Grace permiten una amplia gama de cargas de trabajo de computación intensiva en una multitud de arquitecturas de sistemas.

El superchip de CPU Grace cuenta con dos chips de CPU, conectados de forma coherente a través de una interconexión NVLink-C2C, con hasta 144 núcleos Arm V9 de alto rendimiento con extensiones vectoriales escalables y un subsistema de memoria de 1 terabyte por segundo.

El diseño proporciona el mayor rendimiento y el doble de ancho de banda de memoria y eficiencia energética de los principales procesadores de servidores de la actualidad para abordar las aplicaciones más exigentes de HPC, análisis de datos, digital twins, juegos en la nube y computación de hiperescala.

El superchip Grace Hopper combina una GPU NVIDIA Hopper con una CPU NVIDIA Grace mediante NVLink-C2C en un módulo integrado que se diseñó para abordar las aplicaciones de HPC y de IA de gran escala.

Mediante la interconexión NVLink-C2C, la CPU Grace transfiere los datos a la GPU Hopper 15 veces más rápido que las CPU tradicionales.

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Publicaciones relacionadas

Botón volver arriba