Los principales fabricantes de sistemas del mundo presentaron servidores con las GPUs NVIDIA A-100 para acelerar tareas de Inteligencia Artificial (IA), la Ciencia de Datos y el Procesamiento Científico (HCP).
Se esperan más de 50 servidores con tecnología A-100 de proveedores de todo el mundo, incluidos: ASUS, Atos, CISCO, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta / QCT y Supermicro, luego del lanzamiento del mes pasado. de la arquitectura NVIDIA Ampere y la NVIDIA A100 GPU
La disponibilidad de los servidores varía, con 30 sistemas esperados para los próximos meses y más de 20 para fin de año.
La primera GPU basada en la arquitectura NVIDIA Ampere, la A-100 ofrece aumentar el rendimiento hasta 20 veces más que su predecesora. Cuenta con varios avances técnicos, incluida una nueva tecnología de GPU de de múltiples GPUs, que permite dividir un solo A-100 en hasta siete GPUs separadas para manejar diferentes trabajos de cómputo; tecnología NVIDIA NVLink de tercera generación que permite unir varias GPUs para operar como una GPU gigante; y nuevas capacidades de baja densidad estructural que pueden usarse para duplicar el rendimiento de una GPU.
NVIDIA también presentó un form factor PCIe para el A-100, que complementa las configuraciones de cuatro y ocho vías HGX A100. La adición de una versión PCIe permite a los fabricantes de servidores ofrecer a los clientes un conjunto diverso de ofertas, desde sistemas de GPU A-100 individuales hasta servidores con 10 o más GPUs.
Tal vez te interese: NVIDIA amplia su oferta de Edge Computing para IA
Estos sistemas ofrecen acelerar una amplia gama de cargas de trabajo intensivas en cómputo, desde simular el comportamiento molecular para el descubrimiento de medicamentos hasta desarrollar mejores modelos financieros para las aprobaciones de hipotecas.
Los fabricantes de servidores que llevan sistemas NVIDIA A100 a sus clientes incluyen:
- ASUS ofrecerá el ESC4000A-E10, que se puede configurar con 4 GPUs PCIe A100 en un solo servidor.
- Atos ofrece su sistema Bull Sequana X2415 con cuatro NVIDIA A100 Tensor Core GPUs.
- Cisco planea admitir las GPUs NVIDIA A100 Tensor Core en sus servidores Cisco Unified Computing System y en su sistema de infraestructura hiperconvergente, Cisco HyperFlex.
- Dell Technologies planea admitir las GPUs NVIDIA A100 Tensor Core en sus servidores y soluciones PowerEdge que aceleran las cargas de trabajo de borde a núcleo a la nube, al igual que admite otros aceleradores, software y tecnologías de GPU NVIDIA en una amplia gama de ofertas.
- Fujitsu está llevando las GPUs A-100 a su línea de servidores PRIMERGY.
- GIGABYTE ofrecerá servidores G481-HA0, G492-Z50 y G492-Z51 que admiten hasta 10 GPUs PCIe A-100, mientras que el servidor G292-Z40 admite hasta ocho.
- HPE admitirá GPUs PCIe A-100 en el servidor HPE ProLiant DL380 Gen10, y para cargas de trabajo aceleradas HPC e IA, en el sistema HPE Apollo 6500 Gen10.
- Inspur está lanzando ocho sistemas con tecnología NVIDIA A-100, incluidos NF5468M5, NF5468M6 y NF5468A5 con GPU PCIe A-100, NF5488M5-D, NF5488A5, NF5488M6 y NF5688M6 con NVLink de ocho vías y NF5888 con 16-way NVLink.
- Lenovo admitirá GPUs PCIe A100 en sistemas seleccionados, incluido el servidor listo para inteligencia artificial Lenovo ThinkSystem SR670. Lenovo ampliará la disponibilidad a través de su cartera ThinkSystem y ThinkAgile en el otoño.
- One Stop Systems ofrecerá su sistema de expansión PCIe OSS 4UV Gen 4 con hasta 8 GPUs NVIDIA A-100 PCIe para permitir a los clientes de IA y HPC escalar sus servidores Gen 4.
- Quanta/QCT ofrecerá varios sistemas de servidor QuantaGrid, incluidos D52BV-2U, D43KQ-2U y D52G-4U que admiten hasta 8 GPUs NVIDIA A-100 PCIe.
- Supermicro ofrecerá su sistema 4U A + GPU, que admite hasta 8 GPUs NVIDIA A100 PCIe y hasta dos ranuras de expansión PCI-E 4.0 de alto rendimiento adicionales junto con otros servidores GPU 1U, 2U y 4U.
El software optimizado con NVIDIA A-100 ya está disponible.