NVIDIA DGX B300
생성형 AI 수요에 최적화된 차세대 AI 인프라
NVIDIA DGX B300최신 NVIDIA Blackwell Ultra GPU 아키텍처를 기반으로 한 DGX B300은 새로운 폼팩터로 현대 데이터센터에 최적화되었습니다. 이전 세대 대비 추론 성능은 최대 11배, 학습 성능은 최대 4배 향상됩니다.
NVIDIA MGX™ 및 표준 랙 호환으로 유연한 배치가 가능하며, 풀스택 소프트웨어로 AI 도입과 운영을 단순화합니다.
KEY FEATURES
현대적 데이터센터 맞춤 폼팩터 설계
NVIDIA MGX와 호환되는 고효율 섀시로 구성된 DGX B300은 현대 데이터센터 환경에서 최적화된 성능을 발휘합니다. B300은 PSU와 냉각 솔루션을 통합해 에너지 효율을 극대화하고, 기존 인프라와의 호환성을 보장합니다.
차세대 AI 성능
Blackwell Ultra GPU로 구성된 DGX B300은 총 144 PFLOPS FP4, 72 PFLOPS FP8 성능을 제공하여 대규모 AI 워크로드를 처리할 수 있는
차세대 AI 인프라 플랫폼입니다.
실시간 AI 협력 워크플로우
Blackwell Ultra GPU, ConnectX 네트워크, Mission Control을 기반으로
실시간 협업과 추론을 지원하며, 연구 및 비즈니스 애플리케이션의
혁신을 가속화합니다.
지능형 통합 관리
NVIDIA Mission Control로 지능적인 모니터링, 운영 제어가 가능해집니다.
전력 소비와 성능을 실시간으로 관리하여 데이터센터 효율성을
극대화합니다.
SPECIFICATION
GPU | NVIDIA Blackwell Ultra GPUs |
---|---|
Total GPU Memory | 2.3 TB |
Performance | 144 PFLOPS FP4 inference 72 PFLOPS FP8 training |
NVIDIA NVLink™ Switch System | 2x |
NVIDIA NVLink™ Bandwidth | 14.4 TB/s aggregated bandwidth |
Interconnect | NVIDIA Quantum-2 CX7 InfiniBand, ConnectX-8 VPI |
CPU | Intel Xeon 6776P processors |
Networking | 8x OSFP ports serving 8x NVIDIA ConnextX-8 VPI > Up to 800 Gb/s of NVIDIA InfiniBand/Ethernet 2x Dual-port QSFP112 NVIDIA BlueField-3 DPU > Up to 400 Gb/s of NVIDIA InfiniBand/Ethernet |
Management Network | 1 GbE onboard network interface card (NIC) with RJ45 1 GbE RJ45 host baseboard management controller (BMC) |
Storage | OS: 2x 1.9 TB NVMe M.2 Internal storage: 8x 3.84 TB NVMe E1.S |
Software | NVIDIA AI Enterprise (Optimized AI Software) NVIDIA Mission Control (AI data center operations & orchestation with NVIDIA Run:ai techno) NVIDIA DGX OS (Operating System) Supports Red Hat Enterprise Linux / Rocky / Ubuntu |
Rack Units | 10U |
Operating Temperature | 10°C ~ 35°C |
Support | 3-year business-standard hardware and software support |
추론 시대를 위한 AI 팩토리
LLM 추론을 위한 실시간 파워하우스
대규모 언어 모델(LLM)의 학습과 추론을
가속화할 수 있는 단일 플랫폼입니다.
192 PFLOPS급 추론 성능을 통해
하이퍼스케일러 수준의 운영 역량을 확보합니다.
효율적이고 지속 가능한 혁신
다양한 전력 옵션을 지원하며,
업계 최고 수준의 에너지 효율을 갖춘
AI 슈퍼컴퓨터로 설계되었습니다.
이로써 친환경적 데이터센터 운영이 가능합니다.
혁신적인 인프라 표준
최초로 NVIDIA MGX 랙 배포를 지원합니다.
데이터센터 엔지니어링 혁신을 가속화하고,
보다 손쉽게 고성능/고효율의
AI 인프라를 구현할 수 있도록 합니다.
WHY WITH US?
“10단계 복잡한 설치? 단 3단계로 끝내세요.”
DIY:10단계, 380페이지 매뉴얼, 수많은 설치와 디버깅
MDS테크:3단계, 바로 연구 투입 가능
(OS 설치 및 사전테스트 지원)