본문으로 건너뛰기
NVIDIA Nemotron-Cascade 2 완벽 가이드: 30억 파라미터로 1조급 성능을 내는 MoE 모델 도입 전략
← 블로그로 돌아가기

NVIDIA Nemotron-Cascade 2 완벽 가이드: 30억 파라미터로 1조급 성능을 내는 MoE 모델 도입 전략

개발정보·12분

NVIDIA가 공개한 Nemotron-Cascade 2는 300억 매개변수 MoE 구조에서 실제로는 30억만 활성화하면서 IMO/IOI 금메달급 성능을 달성한다. Cascade RL과 MOPD 기법의 원리와 vLLM 기반 배포 방법을 단계별로 안내한다.

NVIDIA Nemotron-Cascade 2 MoE 모델 가이드

문제 정의: 왜 이 모델이 중요한가

대상 독자: 추론 비용을 줄이면서 코딩/수학 태스크에서 프론티어급 성능이 필요한 엔터프라이즈 AI 팀, ML 엔지니어, 스타트업 CTO.

해결하는 문제: 1조+ 파라미터 모델은 추론 비용과 지연이 비현실적이다. 하지만 고난도 코딩(IOI/ICPC)과 수학(IMO) 태스크에서 그 수준의 성능이 필요한 경우, 작은 모델로는 한계가 명확했다.

Nemotron-Cascade 2의 해법: 300억 파라미터 MoE 구조에서 추론 시 30억만 활성화. DeepSeek-V3.2-Speciale(6710억, A37B)와 동급 Gold Medal 성능을 20배 적은 파라미터로 달성.

적용 범위: 코딩 에이전트, 수학 추론, 알고리즘 문제 해결, 복잡한 다단계 추론이 필요한 프로덕션 환경.
비적용 범위: 지식 암기 기반 QA(MMLU-Pro 등에서 다소 약함), 단순 창작 글쓰기, 에이전틱 작업(τ²-Bench, Terminal Bench에서 경쟁 모델 대비 낮음).

근거 및 비교: 벤치마크로 본 실력

2026년 3월 공개된 NVIDIA 공식 벤치마크 데이터 기준. 동급 크기 모델 및 더 큰 모델과 비교한다.

벤치마크 Nemotron-Cascade 2
(30B, A3B)
Qwen3.5-35B-A3B Kimi-K2.5-1T 비고
AIME 2025 (수학)92.4 (98.6†)91.9-†TIR 모드
HMMT Feb25 (수학)94.689.0-+5.6p
LiveCodeBench v6 (코딩)87.2 (88.4†)74.685.01조 모델 상회
IOI 2025🏅 439.3348.6-Gold Medal
ArenaHard v2 (정렬)83.565.4-+18p 차이
τ²-Bench (에이전틱)58.981.2-약점 영역
MMLU-Pro (지식)79.885.3-약점 영역

출처: NVIDIA arXiv 2603.19220 (2026-03-20), Hugging Face 모델 카드

핵심 판단 기준:

  • 코딩/수학 추론 중심: Nemotron-Cascade 2 선택 (비용 대비 최고 성능)
  • 지식 기반 QA 중심: Qwen3.5 또는 더 큰 모델 고려
  • 에이전틱 작업 중심: τ²-Bench 결과 기준 Qwen3.5-35B-A3B가 더 적합
  • 비용 최우선: 30억 활성 파라미터 = H100 1장에서 262K 컨텍스트 추론 가능

핵심 기술: Cascade RL + MOPD

Cascade Reinforcement Learning

기존 RL 방식은 모든 도메인(수학, 코딩, 정렬 등)을 동시에 학습해 '망각 문제'가 발생했다. Cascade RL은 이를 순차적 도메인별 학습으로 해결한다.

학습 순서 (6단계):

  1. Instruction-Following RL (IF-RL)
  2. Multi-Domain RL (수학, 추론 등 유사 형식 그룹)
  3. RLHF (인간 선호 정렬)
  4. Long-Context RL (32K 입력, 49K 최대 시퀀스)
  5. Code RL (경쟁 프로그래밍, 이진 보상)
  6. SWE RL (소프트웨어 엔지니어링, 에이전트/비에이전트)

장점 3가지:

  • 도메인별 RL이 이전 벤치마크 성능을 거의 저하시키지 않음
  • 각 도메인에 최적화된 하이퍼파라미터 튜닝 가능
  • 동일 도메인 배치로 컴퓨팅 효율성 향상

Multi-Domain On-Policy Distillation (MOPD)

Cascade RL 중간에 특정 도메인에서 최고 성능을 보인 체크포인트를 '교사 모델'로 활용해 전체 균형을 재조정하는 기법.

GRPO 대비 효율성: AIME25 기준, MOPD는 30 스텝 만에 교사 수준(92.0)에 도달. GRPO는 동일 스텝에서 91.0에 그침.

단계별 실행 방법: vLLM 배포

1. 사전 요구사항

# vLLM 0.17.1 이상 필수
pip install vllm>=0.17.1

# GPU 메모리: 24GB 이상 권장 (H100/A100/RTX 4090)
# 262K 컨텍스트는 80GB 이상

2. 기본 서버 실행

vllm serve nvidia/Nemotron-Cascade-2-30B-A3B \
  --port 8000 \
  --tensor-parallel-size 1 \
  --gpu-memory-utilization 0.9 \
  --max-model-len 262144 \
  --reasoning-parser nemotron_v3 \
  --mamba-ssm-cache-dtype float32 \
  --trust_remote_code

3. Tool Call 지원 버전

vllm serve nvidia/Nemotron-Cascade-2-30B-A3B \
  --port 8000 \
  --tensor-parallel-size 1 \
  --gpu-memory-utilization 0.9 \
  --max-model-len 262144 \
  --reasoning-parser nemotron_v3 \
  --mamba-ssm-cache-dtype float32 \
  --trust_remote_code \
  --enable-auto-tool-choice \
  --tool-call-parser qwen3_coder

4. Thinking/Instruct 모드 전환

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained('nvidia/Nemotron-Cascade-2-30B-A3B')

messages = [
  {"role": "system", "content": "You are a helpful assistant."},
  {"role": "user", "content": "Solve: What is the sum of first 100 prime numbers?"}
]

# Thinking 모드 (깊은 추론, <think> 태그 사용)
prompt_thinking = tokenizer.apply_chat_template(
  messages, tokenize=False, 
  add_generation_prompt=True, 
  enable_thinking=True
)

# Instruct 모드 (빠른 응답, 사고 과정 생략)
prompt_instruct = tokenizer.apply_chat_template(
  messages, tokenize=False, 
  add_generation_prompt=True, 
  enable_thinking=False
)

5. API 호출 예시

curl http://localhost:8000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "nvidia/Nemotron-Cascade-2-30B-A3B",
    "messages": [{"role": "user", "content": "Write a Python function to check if a number is prime"}],
    "temperature": 1.0,
    "top_p": 0.95
  }'

권장 샘플링 설정: temperature=1.0, top_p=0.95 (NVIDIA 공식 권장)

실수/함정(Pitfalls)

1. 에이전틱 작업에서의 성능 과신

문제: τ²-Bench(58.9)와 Terminal Bench 2.0(21.1)에서 Qwen3.5-35B-A3B(81.2, 40.5) 대비 현저히 낮음.

예방: 자율 에이전트, 멀티스텝 도구 사용 워크플로우에는 다른 모델 병행 사용. SWE-Verified에서는 OpenHands 프레임워크에서 50.2로 양호하나 경쟁 모델(69.2) 대비 낮음.

2. 지식 기반 QA에서의 한계

문제: MMLU-Pro 79.8, GPQA-Diamond 76.1로 Qwen3.5(85.3, 84.2) 대비 낮음.

예방: 팩트 검색이 중요한 태스크에는 RAG 파이프라인 또는 더 큰 모델 사용. 이 모델은 '지식 암기'보다 '추론'에 최적화.

3. 컨텍스트 길이 설정 실수

문제: --max-model-len을 GPU 메모리보다 크게 설정하면 OOM 발생.

예방: 24GB GPU → 32K~64K, 80GB GPU → 262K까지 가능. NIAH@1M 테스트는 99.0이지만 실제 배포 시 메모리 계산 필수.

4. 라이선스 확인 누락

문제: NVIDIA Open Model License지만 상용 배포 시 조건 확인 필요.

예방: Hugging Face 모델 카드의 라이선스 섹션에서 상용 이용 조건 반드시 검토.

5. Thinking 모드 컨텍스트 관리

문제: 멀티턴 대화에서 <think> 내용이 계속 쌓이면 컨텍스트 폭발.

예방: 공식 가이드대로 이전 턴의 Thinking 내용은 최종 요약만 히스토리에 추가. 토크나이저 기본 동작 활용.

실행 체크리스트

  • ☐ vLLM 버전 0.17.1 이상 확인
  • ☐ GPU 메모리 기준 max-model-len 설정 (24GB→64K, 80GB→262K)
  • ☐ --reasoning-parser nemotron_v3 플래그 필수 추가
  • ☐ --mamba-ssm-cache-dtype float32 설정 (안정성)
  • ☐ temperature=1.0, top_p=0.95 샘플링 파라미터 적용
  • ☐ 에이전틱 작업 시 OpenHands 프레임워크 사용 (OpenCode 미지원)
  • ☐ NVIDIA Open Model License 상용 조건 검토 완료

완료 기준(Definition of Done): vLLM 서버가 정상 기동하고, 샘플 수학 문제에 정확한 답변을 반환하며, 프로덕션 트래픽에서 P99 지연이 5초 이내일 것.

참고자료

작성자 관점

추천: 코딩 에이전트나 알고리즘 문제 해결이 핵심 워크로드인 팀에게 강력히 추천한다. LiveCodeBench 87.2, IOI Gold Medal 성능은 1조 파라미터 모델과 동급이면서 추론 비용은 1/20 수준이다. 특히 H100 1장에서 262K 컨텍스트를 처리할 수 있어 인프라 비용 절감 효과가 크다.

비추천 상황: 팩트 기반 QA, 에이전틱 자율 작업, 지식 검색이 중요한 프로덕션에서는 Qwen3.5-35B-A3B나 더 큰 모델을 고려하라. τ²-Bench 58.9 vs 81.2 차이는 실제 에이전트 성능에서 체감된다.

궁극적 판단: Cascade RL + MOPD 조합은 '모델 크기 경쟁' 패러다임을 바꾸는 신호다. 사후 학습 기법만으로 20배 작은 모델이 동급 성능을 낸다면, 앞으로 기업 AI 전략은 '더 큰 모델'이 아니라 '더 좋은 학습 방식'에 투자해야 한다.

공유하기

관련 글

AQ 테스트 해보기

지금 내 AI 활용 능력이 어느 수준인지 3분 안에 확인해보세요. 인지력, 활용력, 검증력, 통합력, 윤리감을 한 번에 진단하고 맞춤형 인사이트를 받아볼 수 있습니다.

무료 AQ 테스트 시작하기