N NURIINFRA AI Infrastructure
SUPERMICRO × AMD INSTINCT · 한정 프로모션

AMD MI250
AI서버
도입 가이드

Supermicro AS-4124GQ-TNMI 5U에 AMD Instinct MI250 GPU 4장을 탑재한 엔터프라이즈급 AI 학습·추론 서버. NVIDIA H100 80GB 대비 메모리 1.6배, FP64 4.6배 우위. 누리인프라 17년 IT 인프라 전문성으로 함께합니다.

5U 폼팩터 HBM2e 512GB 3000W Titanium PSU × 4 HDR 200G InfiniBand ROCm 7.x 지원
📞 이규홍 부장(마케팅) 직통
핵심 성능 지표
FP64 Matrix
362
TFLOPS
HBM2e
512
GB
P2P 대역폭
3.2
TB/s
GPUAMD Instinct MI250 OAM × 4
CPUAMD EPYC 7413 × 2 (48C/96T)
Power3000W × 4 (2+2 이중화)
SWROCm 7.x · PyTorch · vLLM
01 — 제품 개요

엔터프라이즈급
4-Way GPU 풀스택

Supermicro AS-4124GQ-TNMI 5U 섀시에 AMD Instinct MI250 OAM 모듈 4장이 통합된 데이터센터 표준 구성.

🎯
GPU
AMD MI250
OAM × 4
53,248 SP · CDNA2
208 Compute Units
💾
메모리
512 GB
HBM2e
128GB GPU 4장 통합 풀
3.27 TB/s 대역폭
⚙️
CPU
EPYC 7413
× 2 (48C/96T)
Zen3 · DDR4-3200
듀얼 소켓 구성
전원
3000W × 4
2+2 이중화
Titanium 96% 효율
무중단 동작
주변 인터페이스 5U 폼팩터 ConnectX-6 HDR 200Gb InfiniBand 10× NVMe/SATA U.2 베이 PCIe Gen4 x16 IPMI 원격관리
02 — 기술 차별화

CDNA2 아키텍처
5가지 핵심 강점

Frontier 슈퍼컴퓨터(Top500 1위)에 채택된 검증된 데이터센터 GPU 아키텍처.

A.01
🧬

CDNA2 듀얼 GCD

208 Compute Units · 13,312 SP

한 카드에 GCD(Graphics Compute Die) 2개 통합. Infinity Fabric으로 코히런트 메모리 연결되어 단일 GPU처럼 동작.

  • TSMC 6nm FinFET · 56B 트랜지스터
  • Matrix Core 가속 (AI/HPC 특화)
  • Frontier (ORNL) Top500 1위 채택
A.02

압도적 연산 성능

FP64 90.5 TFLOPS · 카드당

정밀도별 Peak Theoretical Performance. 4-Way 시스템 합산 1.45 PFLOPS (FP16/BF16).

  • FP64 Matrix: 90.5 TFLOPS (A100의 4.6배)
  • FP16/BF16: 362 TFLOPS · 1.45 PFLOPS (4×)
  • INT8/INT4 양자화 추론 동일 성능
A.03
🔗

Infinity Fabric 메시

800 GB/s 카드당 P2P

8개 P2P 링크가 양방향 100GB/s로 연결. 4-Way All-to-All 메시 토폴로지로 PCIe 우회.

  • 25 GT/s × 양방향 → 100 GB/s 링크
  • 96% 스케일링 효율 (4 → 128 GPU)
  • Moreh: 1,200× MI250 클러스터 검증
A.04
🔓

ROCm 오픈소스

CUDA 의존성 없는 개방형 플랫폼

PyTorch 공식 ROCm 빌드 제공. HIPify로 CUDA 코드 자동 변환. 멀티벤더 정책에 부합.

  • PyTorch · TensorFlow · JAX · vLLM 호환
  • Hugging Face Transformers·Diffusers 직접
  • FlashAttention-2 1.13× 속도 향상
A.05
💎

엔터프라이즈 신뢰성

Titanium PSU · 2+2 이중화

데이터센터 표준 5U 폼팩터. PSU 한 장 고장 시 무중단 동작. IPMI 원격관리 지원.

  • 96% 효율 (Platinum 대비 7~10만원/년 절감)
  • 10× NVMe/SATA U.2 베이
  • 정밀 검수 완료 USED · 무상보증 3개월
SUMMARY

한 줄 요약

"메모리 큰 GPU"의 결정판.
70B+ LLM을 단일 GPU에 적재하고, FP64 HPC를 4.6배 빠르게, 그리고 NVIDIA에 대한 의존을 끊는 — 동시에 모두 만족하는 유일한 선택지.

512GB

AI 워크로드의 진짜 병목은 메모리

70B 파라미터 모델을 FP16으로 적재하면 약 140GB. H100 80GB는 두 장 이상 분산 적재해야 하지만, 본 서버는 카드 한 장(128GB)으로 단일 GPU 추론 가능.

  • 128 GB × 4 GPU = 통합 단일 메모리 풀
  • Infinity Fabric 코히런트 메모리
  • 200B+ 초대형 모델 단일 노드 추론
  • H100 80GB 대비 1.6배 용량, 거의 동등 대역폭

정밀도별 최대 연산 성능

PEAK THEORETICAL · 카드당 (TFLOPS)
FP64 Vec
45.3
FP64 Mat
90.5
FP32 Vec
45.3
FP32 Mat
90.5
FP16/BF16
362.1
INT8/INT4
362.1
0100200300400

동급 GPU 메모리 비교

메모리 용량 (GB) — 1.6× 우위
A100 80GB
80 GB
H100 SXM
80 GB
MI250 (본 제품)
128 GB
04080120150
메모리 대역폭 (TB/s)
A100 80GB
2.04
H100 SXM
3.35
MI250
3.27
03 — 경쟁 비교

NVIDIA H100 / A100과의
객관적 스펙 비교

학습 처리량은 H100, 메모리·HPC·오픈성·TCO는 MI250 — 워크로드에 따른 최적 선택.

항목 NVIDIA A100 80GB NVIDIA H100 SXM AMD MI250 (본 제품)
아키텍처Ampere (7nm)Hopper (4nm)CDNA2 (6nm)
메모리 용량80 GB HBM2e80 GB HBM3128 GB HBM2e
메모리 대역폭2.04 TB/s3.35 TB/s3.27 TB/s
FP64 Matrix19.5 TFLOPS67 TFLOPS90.5 TFLOPS
FP16 / BF16312 TFLOPS989 TFLOPS362 TFLOPS
TDP400W700W560W
소프트웨어CUDA (벤더 락인)CUDA (벤더 락인)ROCm (오픈소스)
04 — 도입 적합 워크로드

본 서버가 빛을 발하는
6가지 시나리오

🧠

대형 LLM 추론·서빙

70B+ 파라미터 단일 노드 적재

Llama 70B, Qwen 72B, Mixtral 8x22B 등 Hugging Face 대형 모델을 단일 서버에서 vLLM/TGI로 서빙.

🎓

분산 파인튜닝 / 학습

ROCm + FSDP 96% 효율

기업 도메인 데이터로 LLM 파인튜닝, 멀티노드 데이터·모델 병렬. Databricks·Moreh가 검증.

🔬

HPC · 과학연산

FP64 — A100 대비 4.6배

분자동역학, 기후모델, 양자화학, 몬테카를로 시뮬레이션. Frontier 검증 정밀 연산.

🏢

엔터프라이즈 온프레미스 AI

데이터 외부 유출 없는 사내 AI

금융·의료·국방·공공 등 데이터 보안 중요 기관의 RAG, 챗봇, 코드 어시스턴트, 문서 분석.

📈

비용 민감 AI 스타트업

A100 대비 운영비 절반

초기 투자 부담을 줄이고 싶은 AI 스타트업, 대학 연구실, 정부 R&D 과제. H100 대비 30~50% 저렴.

🔓

벤더 락인 회피

CUDA 종속 탈피

엔비디아 독점 의존을 피하고 싶은 대기업·정부기관. ROCm 오픈소스로 장기 운영 리스크 분산.

05 — 도입 사례

3가지 실제 도입 시나리오

의료·AI 스타트업·공공 — 누리인프라가 제안 가능한 현실 시나리오. (가상 시나리오 · 실제 도입 시 조건 변동 가능)

CASE STUDY 01
의료 / 헬스케어
🏥
수도권 500병상
종합병원
가상 시나리오 · 누리인프라 제안 모델
도입 시기2026년 Q3 예정
도입 규모MI250 서버 1대
총 투자약 5,500만원
ROI 회수약 18개월 추정

환자 의무기록(EMR) 5년치, 영상판독지 50만건을 외부 클라우드로 보낼 수 없는 환경에서 AI 임상의사결정지원시스템(CDSS) 구축 필요. 의료법상 환자 정보는 병원 내부망 외부로 반출 불가.

MI250 서버 1대 + 자체 서버룸 설치. 의료 특화 LLM(Llama 70B 파인튜닝)을 vLLM으로 서빙, BGE-M3 임베딩 + Milvus 벡터 DB로 환자 차트 RAG 검색. 모든 데이터는 병원 내부망에서만 처리.

70%
영상판독 1차 검토 시간 단축
100%
환자 데이터 외부 유출 차단
24h
365일 무중단 진료지원
CASE STUDY 02
AI 스타트업
🚀
Series A 한국어 LLM 스타트업
가상 시나리오 · 누리인프라 제안 모델
도입 시기2026년 Q2~Q3
도입 규모MI250 서버 4대
총 투자약 1.8억원
비교H100 대비 -55%

Series A 펀딩 30억원으로 한국어 특화 30B 파라미터 LLM 사전학습 필요. H100 8-Way 서버는 대당 4억원 + 1년 대기열, 클라우드 시간당 임대는 펀딩의 80%를 소진하는 구조. 18개월 내 MVP 출시 압박.

MI250 서버 4대로 16-Way 클러스터 구성 (총 GPU 메모리 2,048GB). HDR 200G InfiniBand로 노드 간 연결, ROCm + PyTorch FSDP로 30B 모델 분산학습. GPU 전용 코로케이션(가비아) 입주.

55%
H100 솔루션 대비 자본지출 절감
16-way
자체 학습 클러스터 보유
12개월
사전학습 완료 일정
CASE STUDY 03
공공 / 정부기관
🏛️
광역지자체 산하
공공기관
가상 시나리오 · 누리인프라 제안 모델
도입 시기2026 Q4~2027 Q1
도입 규모MI250 서버 2대 (이중화)
총 투자약 1억원
정책 부합멀티벤더

연간 50만건 민원 응대 + 내부 규정·판례 문서 100만건 검색 자동화 필요. 공공기관 정보보안 정책상 외부 클라우드 사용 제한. 정부 멀티벤더 권장 정책에 따라 NVIDIA 단독 의존 회피.

MI250 서버 2대 (이중화 운영). 누리인프라 AICC 플랫폼(LangGraph 기반) 적용 — Voice ARS, Visual ARS, 챗봇 통합. Qwen3-32B + 내부 규정 RAG (Milvus + Neo4j 지식그래프). ROCm 오픈소스 = 멀티벤더 정책 부합.

60%
단순 민원 1차 응대 자동화
2초
내부 문서 검색 응답 시간
0건
데이터 외부 유출 사고
06 — 운영 비용 & 시설 요건

전력 소비량과
예상 전기요금

한전 산업용(을) 고압A 단가 기준 — 추론 22만원/월, 학습 풀가동 32만원/월. H100 대비 전력비 1/3 수준.

구성요소별 전력 소비

구성요소단위수량합계
AMD MI250 OAM560W42,240W
AMD EPYC 7413180W2360W
DDR4 메모리5W~24~120W
NIC · SSD · 팬 · MB~180W
최대 소비전력 (DC)약 2,900W

PSU 96% 효율 적용 시 벽 콘센트 입력 약 3,020W. PSU 4×3000W는 2+2 이중화로 운영.

한전 산업용(을) 고압A 단가

  • 봄·가을 137 원/kWh
  • 여름철 (7~8월) 168 원/kWh
  • 겨울철 (11~2월) 165 원/kWh

기본요금 별도: 7,220원/kW × 계약전력 · 냉방 포함 시 PUE 1.5 적용

시나리오별 24시간 운영 비용 (서버 1대 기준)

시나리오평균 부하월 사용량월 전기료3년 누적
추론 위주2.0 kW1,440 kWh약 22만원약 790만원
표준 운영2.5 kW1,800 kWh약 27만원약 980만원
학습 풀가동2.9 kW2,088 kWh약 32만원약 1,150만원
💡 3년 운영 시 총 전기료 ≈ 1,470만원 (본체가 35%) — H100 SXM 8-Way 대비 동급 메모리 환산 시 전력비 1/3 수준
0
⚠ 데이터센터 호환성 경고

KT cloud DC 표준랙 (2.2kW)

본 서버 1대 = 약 3kW로 표준랙 한도 36% 초과 → 1대도 설치 불가. 일반 코로케이션 사용 중인 고객은 GPU 전용 상품 전환 또는 자체 서버룸 구축 필요. 누리인프라가 사전 협의로 적합한 데이터센터를 함께 찾아드립니다.

KT 표준랙 (2.2kW)
0대
일반 IDC (5~6kW)
1~2대
중밀도 랙 (8~10kW)
2~3대
GPU 전용랙 (15~20kW)
5~6대
공간 한계 (42U)
8대
07 — 가격 옵션

투명한 가격 구조
한정 프로모션 적용가

2026.5.11 ~ 6.30 한정 · 부가세 포함 · 배송비·설치비 옵션 별도 견적

BASE PACKAGE
MI250 AI서버 본체
정밀 검수 완료 · USED
4,200 만원
VAT 포함
  • MI250 OAM × 4 (검수완료)
  • EPYC 7413 × 2 (Zen3)
  • SATA SSD 480GB × 2
  • SAS3 RAID 컨트롤러
  • ConnectX-6 HDR 200G InfiniBand
  • 무상보증 3개월 · 동급 장비 교체

옵션 패키지 (선택)

실제 도입 환경에 맞춰 추가 견적 가능

옵션내용예상 견적
설치 / 셋업랙 마운트 + ROCm 환경 + vLLM 서빙 셋업200~500만원
배송 (수도권)차량 운송 + 상하차 + 안전 패킹20~50만원
배송 (지방)차량 운송 + 상하차 + 안전 패킹50~100만원
메모리 증설DDR4-3200 RDIMM 추가 (32 슬롯 中 가능)50~200만원
스토리지 추가NVMe U.2 SSD (3.84TB / 7.68TB / 15TB)100~600만원
유지보수 연장12 / 24 / 36개월 (장비 교체 보장)월 35만원~
AICC 솔루션누리인프라 AICC + RAG 플랫폼 도입별도 견적
💡 추천 패키지: 본체 + 설치 + 12개월 유지보수 = 약 4,800~5,200만원 (VAT 포함, 1대 기준)
08 — 계약 절차

상담 신청부터 설치 완료까지
6단계 · 표준 3~5주

01
📞
상담 신청

홈페이지 또는 전화로 문의

당일
02
📋
현장 실사

전기·냉방·랙 환경 점검

1~3일
03
🏷️
견적 발행

본체 + 옵션 + 설치 견적서

2~5일
04
✍️
계약 체결

표준 계약서 + 30% 선금

1~7일
05
🚚
납품 / 설치

운송 + 랙 마운트 + 환경 구성

1~2주
06
검수 / 잔금

동작 검수 + 70% 잔금

1~3일
💰 결제 조건

계약 시 30% 선금 · 납품 검수 후 70% 잔금 · 세금계산서 발행

⚠️ 주의 사항

USED 장비 · 무상보증 3개월 · 데이터센터 호환성 사전 확인 필수

09 — A/S 보증 정책

무상보증 3개월
동급 장비 교체 보장

STANDARD WARRANTY
무상 유지보수
3
설치 검수 완료일 기준 · 개월
동급 장비 교체 보장
보증 범위
  • GPU(MI250) 및 CPU(EPYC) 하드웨어 결함
  • 메인보드, 메모리, PSU 등 주요 부품
  • 스토리지(SSD), 네트워크 카드
  • 장애 발생 시 동급 장비로 즉시 교체
  • 운송비: 누리인프라 부담 (보증기간 내)
보증 연장 옵션 (유료)
기본 3개월 종료 후 추가 가입 가능
Standard
+ 9개월
총 12개월
월 35만원
VAT 별도
Long-term
+ 33개월
총 36개월
월 28만원
VAT 별도
🎧 기술지원 응대: 평일 09~18시 · 긴급 장애 24시간 핫라인 (보증 가입 시 제공)
CONTACT

도입 상담을
기다리겠습니다

서버 공급부터 전력 설계, 설치, 운영 환경 구성까지 — 누리인프라가 함께합니다. 17년 IT 인프라 경험으로 검증된 파트너.

📞
SALES CONTACT
이규홍 부장(마케팅)
영업담당 · 누리인프라 주식회사
02-873-6646
평일 09~18시
회사명
누리인프라 주식회사
대표자
정성우
사업자번호
119-86-16251
주소
서울 관악구 쑥고개로 87