
モデル比較
対
step3
2026/02/28

仕様
州
Deprecated
建築
Mixture-of-Experts (MoE) architecture with Multi-Matrix Factorization Attention (MFA) and Attention-FFN Disaggregation (AFD)
キャリブレートされた
はい
いいえ
専門家の混合
はい
はい
合計パラメータ
321B
アクティブ化されたパラメータ
38B
推論
はい
いいえ
Precision
FP8
コンテキスト長
66K
Max Tokens
66K
対応機能
Serverless
対応
対応
Serverless LoRA
対応
サポートされていません
Fine-tuning
対応
サポートされていません
Embeddings
対応
対応
Rerankers
対応
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
対応
構造化されたOutputs
対応
サポートされていません
ツール
対応
対応
Fim Completion
対応
サポートされていません
Chat Prefix Completion
対応
サポートされていません
比較において
見てください主要な次元において他の人気のあるモデルと比較します。
VS

Step-3.5-Flash
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-120b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
