: 기업 AI 전환 가속에 최적화 된
NVIDIA DGX B200
개발부터 배포까지 원스톱
- 훈련에서 미세 조정, 추론에 이르는 AI 파이프라인의 모든 단계에서
워크플로우를 가속화하도록 구축된 단일 플랫폼
- 훈련에서 미세 조정, 추론에 이르는 AI 파이프라인의 모든 단계에서
강력한 AI 성능
- DGX H100 대비 3배의 훈련 성능과 15배의 추론 성능을 제공
모든 워크로드에 최첨단 성능을 제공
- DGX H100 대비 3배의 훈련 성능과 15배의 추론 성능을 제공
기업 AI 전환 가속에 최적화 된
NVIDIA DGX B200
모든 규모의 기업을 위한 개발-배포 파이프라인을 위한 통합 AI 플랫폼
NVIDIA DGX B200
모든 워크로드에 적합한 AI 인프라, DGX B200으로
거대 언어 모델, 추천 시스템, 챗봇 등 다양한 워크로드 처리를 가속화해보세요.
NVIDIA DGX B200 | |
---|---|
GPU | 8x NVIDIA Blackwell GPUs |
GPU memory | 1,440GB total GPU memory |
Performance | 72 petaFLOPS training and 144 petaFLOPS inference |
Power Consumption | ~14.3kW max |
CPU | 2 Intel® Xeon® Platinum 8570 Processors 112 Cores total, 2.1 GHz (Base), 4 GHz (Max Boost) |
System Memory | Up to 4TB |
Networking | 4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA BlueField-3 DPU Up to 400Gb/s InfiniBand/Ethernet |
Management Network | 10Gb/s onboard NIC with RJ45 100Gb/s dual-port ethernet NIC Host baseboard management controller (BMC) with RJ45 |
Storage | OS: 2x 1.9TB NVMe M.2 Internal storage: 8x 3.84TB NVMe U.2 |
Storage | OS: 2x 1.9TB NVMe M.2 Internal storage: 8x 3.84TB NVMe U.2 |
Software | NVIDIA AI Enterprise: Optimized AI Software DGX OS / Ubuntu: Operating system NVIDIA Base Command™: Orchestration, Scheduling, and Cluster Management |
Rack Units (RU) | 10 RU |
System Dimensions | Height: 17.5in (444mm) | Width: 19.0in (482.2mm) | Length: 35.3in (897.1mm) |
Operating Temperature | 5–30°C (41–86°F) |
Enterprise Support | Three-year Enterprise Business-Standard Support for hardware and software 24/7 Enterprise Support portal access Live agent support during local business hours |