NVIDIA DGX B200
AI 개발부터 배포까지 지원하는 기업용 통합 플랫폼
NVIDIA DGX B200NVIDIA DGX™ B200은 기업이 규모와 상관 없이 AI 개발부터 배포까지 전 과정을 원활하게 이어갈 수 있도록 설계된 통합 플랫폼입니다. 최신 5세대 NVIDIA NVLink로 연결된 8개의 NVIDIA Blackwell GPU를 탑재해, 이전 세대 대비 최대 3배 향상된 학습 성능과 15배 강화된 추론 성능을 제공합니다. 또한 Blackwell 아키텍처 기반의 강력한 성능으로 LLM, 추천 시스템, 챗봇 등 다양한 AI 워크로드를 지원해 기업의 혁신을 가속화 합니다.
KEY FEATURES
차세대 GPU 아키텍처
최신 NVIDIA Blackwell GPU 8개와 5세대 NVLink를 탑재하여 GPU 간
초고속 대역폭을 제공, 대규모 AI 연산을 위한 안정적인 인프라를 보장합니다.
압도적인 성능 향상
DGX B200은 이전 세대 대비 학습 성능은 최대 3배, 추론 성능은 15배까지 강화되어, 초대형 모델 개발과 배포 속도를 획기적으로 단축합니다.
다양한 워크로드 최적화
거대 언어 모델(LLM), 추천 시스템, 챗봇 등 엔터프라이즈 AI 워크로드
전반을 단일 플랫폼에서 처리할 수 있어 기업의 AI 혁신을 가속화합니다.
지능적이고 효율적인 운영
10U 폼팩터와 표준 랙 호환, 최대 ~14.4kW 전력 및 4x OSFP(8x ConnectX‑7),
2x 듀얼포트 QSFP112 BlueField‑3 DPU로 최대 400Gb/s IB/Ethernet을
지원합니다.
SPECIFICATION
| GPU | 8x NVIDIA Blackwell GPUs |
|---|---|
| Total GPU Memory | 1,440GB (1.4 TB) |
| Performance | 72 petaFLOPS FP8 training 144 petaFLOPS FP4 inference |
| NVIDIA NVSwitch | 2x (5th‑gen NVLink switches) |
| NVIDIA NVLink Bandwidth | 14.4 TB/s aggregate bandwidth |
| CPU | 2x Intel® Xeon® Platinum 8570 (112 cores total, 2.1 GHz base / 4.0 GHz max boost) |
| System Memory | Up to 4 TB |
| Networking | 4x OSFP ports serving 8x single‑port NVIDIA ConnectX‑7 VPI (up to 400 Gb/s IB/Ethernet) 2x dual‑port QSFP112 NVIDIA BlueField‑3 DPU (up to 400 Gb/s IB/Ethernet) |
| Management Network | 10GbE onboard NIC (RJ45), 100GbE dual‑port NIC, BMC (RJ45) |
| Storage | OS: 2x 1.9 TB NVMe M.2 (RAID1) Internal: 8x 3.84 TB NVMe U.2 |
| Software | NVIDIA AI Enterprise (Optimized AI Software) NVIDIA Mission Control (AI data center operations & orchestration with NVIDIA Run:ai technology) NVIDIA DGX OS / Ubuntu (Operating System) |
| Rack Units | 10 RU |
| System Dimensions | Height: 17.5 in (444 mm) | Width: 19.0 in (482.2 mm) | Length: 35.3 in (897.1 mm) |
| Operating Temperature | 5–30°C (41–86°F) |
| Power Consumption | ~14.3 kW max |
| Enterprise Support | 3‑year Enterprise Business‑Standard support (HW/SW), 24/7 포털, 영업시간 내 라이브 에이전트 지원 |
모든 워크로드를 위한 AI 인프라
개발에서 배포까지 단일 플랫폼
막대한 연산이 필요한 AI 데이터세트 처리에
최적화된 플랫폼입니다. 기업은 이 단일 플랫폼을 통해 훈련, 파인튜닝, 추론까지 이어지는
전체 AI 파이프라인을 가속화할 수 있습니다.
AI 성능의 새로운 기준
DGX H100 대비 3배 빠른 학습 성능과
15배 강화된 추론 성능을 제공합니다.
또한 DGX BasePOD과 SuperPOD 환경에서
모든 AI 워크로드에 최첨단 성능을 구현합니다.
검증된 인프라 표준
최적화된 HW와 SW가 결합된 플랫폼으로,
NVIDIA Mission Control, AI Enterprise를 비롯한
전체 AI 소프트웨어 스택, 서드파티 에코시스템,
전문 서비스까지 지원합니다.
WHY WITH US?
“10단계 복잡한 설치? 단 3단계로 끝내세요.”
DIY:10단계, 380페이지 매뉴얼, 수많은 설치와 디버깅
MDS테크:3단계, 바로 연구 투입 가능
(OS 설치 및 사전테스트 지원)







열톡레터 구독하기 
열화상 블로그
열화상카메라 스토어
NVIDIA AI 블로그
네이버 톡톡 제품 문의
MDS테크 AI 스토어
윈도우와 IoT 이야기
IoT Tech Tube