NVIDIA DGX B200 : MDS테크

NVIDIA DGX B200


NVIDIA DGX B200

AI 개발부터 배포까지 지원하는 기업용 통합 플랫폼

NVIDIA DGX B200

NVIDIA DGX™ B200은 기업이 규모와 상관 없이 AI 개발부터 배포까지 전 과정을 원활하게 이어갈 수 있도록 설계된 통합 플랫폼입니다. 최신 5세대 NVIDIA NVLink로 연결된 8개의 NVIDIA Blackwell GPU를 탑재해, 이전 세대 대비 최대 3배 향상된 학습 성능과 15배 강화된 추론 성능을 제공합니다. 또한 Blackwell 아키텍처 기반의 강력한 성능으로 LLM, 추천 시스템, 챗봇 등 다양한 AI 워크로드를 지원해 기업의 혁신을 가속화 합니다.

8 GPU
NVIDIA Blackwell
1.4 TB
GPU Memory
144 PFLOPS
FP4 Inference
~14.3 kW
Power Consumption
4 TB
System Memory
72 PFLOPS
FP8 Training

KEY FEATURES


차세대 GPU 아키텍처

최신 NVIDIA Blackwell GPU 8개와 5세대 NVLink를 탑재하여 GPU 간

초고속 대역폭을 제공, 대규모 AI 연산을 위한 안정적인 인프라를 보장합니다.

압도적인 성능 향상

DGX B200은 이전 세대 대비 학습 성능은 최대 3배, 추론 성능은 15배까지 강화되어, 초대형 모델 개발과 배포 속도를 획기적으로 단축합니다.

다양한 워크로드 최적화

거대 언어 모델(LLM), 추천 시스템, 챗봇 등 엔터프라이즈 AI 워크로드 

전반을 단일 플랫폼에서 처리할 수 있어 기업의 AI 혁신을 가속화합니다. 

지능적이고 효율적인 운영

10U 폼팩터와 표준 랙 호환, 최대 ~14.4kW 전력 및 4x OSFP(8x ConnectX‑7), 

2x 듀얼포트 QSFP112 BlueField‑3 DPU로 최대 400Gb/s IB/Ethernet을 

지원합니다.

SPECIFICATION

GPU8x NVIDIA Blackwell GPUs
Total GPU Memory1,440GB (1.4 TB)
Performance72 petaFLOPS FP8 training
144 petaFLOPS FP4 inference
NVIDIA NVSwitch2x (5th‑gen NVLink switches)
NVIDIA NVLink Bandwidth14.4 TB/s aggregate bandwidth
CPU2x Intel® Xeon® Platinum 8570 (112 cores total, 2.1 GHz base / 4.0 GHz max boost)
System MemoryUp to 4 TB
Networking4x OSFP ports serving 8x single‑port NVIDIA ConnectX‑7 VPI (up to 400 Gb/s IB/Ethernet)
2x dual‑port QSFP112 NVIDIA BlueField‑3 DPU (up to 400 Gb/s IB/Ethernet)
Management Network10GbE onboard NIC (RJ45), 100GbE dual‑port NIC, BMC (RJ45)
StorageOS: 2x 1.9 TB NVMe M.2 (RAID1)
Internal: 8x 3.84 TB NVMe U.2
SoftwareNVIDIA AI Enterprise (Optimized AI Software)
NVIDIA Mission Control (AI data center operations & orchestration with NVIDIA Run:ai technology)
NVIDIA DGX OS / Ubuntu (Operating System)
Rack Units10 RU
System DimensionsHeight: 17.5 in (444 mm)  |  Width: 19.0 in (482.2 mm)  |  Length: 35.3 in (897.1 mm)
Operating Temperature5–30°C (41–86°F)
Power Consumption~14.3 kW max
Enterprise Support3‑year Enterprise Business‑Standard support (HW/SW), 24/7 포털, 영업시간 내 라이브 에이전트 지원

모든 워크로드를 위한 AI 인프라

LLM 추론 아이콘

개발에서 배포까지 단일 플랫폼

막대한 연산이 필요한 AI 데이터세트 처리에

최적화된 플랫폼입니다. 기업은 이 단일 플랫폼을 통해 훈련, 파인튜닝, 추론까지 이어지는

전체 AI 파이프라인을 가속화할 수 있습니다.

효율 아이콘

AI 성능의 새로운 기준

DGX H100 대비 3배 빠른 학습 성능과

15배 강화된 추론 성능을 제공합니다.

또한 DGX BasePOD과 SuperPOD 환경에서

모든 AI 워크로드에 최첨단 성능을 구현합니다.

인프라 표준 아이콘

검증된 인프라 표준

최적화된 HW와 SW가 결합된 플랫폼으로,

NVIDIA Mission Control, AI Enterprise를 비롯한

전체 AI 소프트웨어 스택, 서드파티 에코시스템,

전문 서비스까지 지원합니다.

WHY WITH US?

“10단계 복잡한 설치? 단 3단계로 끝내세요.”

DIY:10단계, 380페이지 매뉴얼, 수많은 설치와 디버깅

Install Ubuntu Linux (10pg)
Install CUDA (41pg)
Install cuDNN (154pg)
Install & Upgrade PIP (20pg)
Install BAZEL (50pg)
Install TensorFlow (15pg)
Upgrade Frotobuf (15pg)
Install Docker (75pg)
Test the Installation
Debug & Fix Install

MDS테크:3단계, 바로 연구 투입 가능

설치 지원
MDS테크에서 구매
(OS 설치 및 사전테스트 지원)
최적화
제품 언박싱
연구
연구 투입
NVIDIA DGX Platform 제품 문의
nvidia-partner@mdstech.co.kr · 031-602-5123
견적 문의 바로가기
제 품문 의
top