
모델 비교
대
Ring-flash-2.0
2026. 2. 28.

사양
주
Available
건축
Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design
교정된
네
네
전문가의 혼합
네
네
총 매개변수
100B
활성화된 매개변수
6.1B
추론
네
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
지원됨
Serverless LoRA
지원됨
지원하지 않음
Fine-tuning
지원됨
지원하지 않음
Embedding
지원됨
지원됨
Rerankers
지원됨
지원하지 않음
지원 Image Input
지원하지 않음
지원하지 않음
JSON Mode
지원됨
지원하지 않음
구조화된 Outputs
지원됨
지원하지 않음
도구
지원됨
지원하지 않음
Fim Completion
지원됨
지원하지 않음
Chat Prefix Completion
지원됨
지원됨
비교에서
보세요 어떻게 다른 인기 있는 모델과 주요 측면에서 비교합니다.
VS

Step-3.5-Flash
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-120b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
