모든 워크로드를 위한 궁극의 성능
NVIDIA A100
NVIDIA A100 Tensor 코어 GPU는 AI, 데이터 분석 및 HPC(high-performance computing) 를 위한 모든 규모의 유례 없는 가속화를 제공하여 세계에서 가장 까다로운 컴퓨팅 문제를 처리합니다. NVIDIA 데이터센터 플랫폼의 엔진에 해당하는 A100은 NVIDIA MIG(Multi-Instance GPU) 기술을 통해 수천 개 GPU로 효율적으로 확장하고
7개 GPU 인스턴스로 분할하여 모든 규모의 워크로드를가속화합니다.
또한, 3세대 Tensor 코어는 다양한 워크로드를 위해 모든 정밀도를 가속화하여 인사이트 확보 시간과 시장 출시 시간을 단축합니다.
제품 사양
NVIDIA A100 | ||
---|---|---|
SPECIFICATIONS | NVIDIA A100 for HGX™ | NVIDIA A100 for PCIe |
GPU Architecture | NVIDIA Ampere | |
Double-Precision Performance | FP64: 9.7 TFLOPS FP64 Tensor Core: 19.5 TFLOPS | |
Single-Precision Performance | FP32: 19.5 TFLOPS TF32: 156 TFLOPS | 312 TFLOPS* | |
Half-Precision Performance | 312 TFLOPS | 624 TFLOPS* | |
Bfloat16 | 312 TFLOPS | 624 TFLOPS* | |
Integer Performance | INT8: 624 TOPS | 1,248 TOPS* INT4: 1,248 TOPS | 2,496 TOPS* | |
GPU Memory | 40 GB HBM2 | |
Memory Bandwidth | 1.6 TB/sec | |
Error-Correcting Code | Yes | |
Interconnect Interface | PCIe Gen4: 64 GB/ sec Third generation NVIDIA® NVLink®: 600 GB/sec** | PCIe Gen4: 64 GB/ sec Third generation NVIDIA® NVLink®: 600 GB/sec** |
Form Factor | 4/8 SXM4 | PCIe 4 |
Multi-Instance GPU (MIG) | Up to 7 GPU instances | |
Max Power Consumption | 400 W | 250 W |
Thermal Solution | Passive |
* 희소성 포함
** 최대 2GPU에 대해 HGX A100 서버 보드를 통한 SXM GPU, NVLink Bridge를 통한 PCIe GPU