Nvidia está trabajando en una nueva variante de la GPU A100, con 80 GB de memoria HBM2e y una interfaz PCIe 4.0. Actualmente, la variante PCIe de este acelerador solo viene con 40 GB de memoria de video.
Recientemente apareció el A100 PCIe con 80 GB de memoria HBM2e Sitio web del centro de datos de Nvidia, sin anuncio oficial. Nvidia introducido antes una variante de 80 GB de la GPU A100, pero solo se envió como un módulo SXM4, que se monta directamente en la placa base. La compañía no había ofrecido previamente un A100 con 80 GB de memoria como tarjeta enchufable PCIe.
Nvidia aún tiene que anunciar una fecha de lanzamiento para la nueva variante PCIe, pero fuentes anónimas dicen VideoCardz La GPU debería estar disponible la próxima semana. La nueva variante de 80 GB tendría un ancho de banda de memoria de 2 TB / s, al igual que el módulo SXM4 con 80 GB de memoria.
La Nvidia A100 es una GPU de centro de datos basada en la arquitectura Ampere, que también se utiliza en las tarjetas gráficas GeForce RTX 30 de la empresa. El chip tiene un área de 826 mm² y está compuesto por 54 mil millones de transistores. El A100 tiene 6912 núcleos CUDA. La estructura de estos núcleos es diferente de todos modos que los núcleos CUDA de las recientes tarjetas gráficas de consumo GeForce de Nvidia, lo que hace que estos números de núcleos no tengan comparación con las tarjetas gráficas RTX 30 de la compañía.
Especificaciones de Nvidia A100 | ||
Modelo | PCIe A100 | A100 SXM4 |
GPU | GA100 | GA100 |
Colores CUDA | 6912 | 6912 |
Memoria | 40 GB / 80 GB | 40 GB / 80 GB |
Ancho de banda de memoria | 40 GB: 1555 GB / s 80 GB: 2039 GB / s |
40 GB: 1555 GB / s 80 GB: 2039 GB / s |
Max. tdp | 40 GB: 250 W 80 GB: nnb |
40 GB: 400 W 80 GB: 400 W |
«Emprendedor. Aficionado incurable al twitter. Gamer. Aficionado apasionado de la cerveza. Practicante de la web. Estudiante típico».