

モデル比較
Ling-flash-2.0
対
gpt-oss-120b
2026/02/28
価格
Input
$
0.14
/ M Tokens
$
0.05
/ M Tokens
Output
$
0.57
/ M Tokens
$
0.45
/ M Tokens
メタデータ
作成する
2025/09/17
2025/08/04
ライセンス
MIT LICENSE
APACHE-2.0
プロバイダー
inclusionAI
OpenAI
仕様
州
Available
Available
建築
Ling 2.0 MoE architecture
Mixture of Experts
キャリブレートされた
いいえ
はい
専門家の混合
はい
はい
合計パラメータ
100B
120B
アクティブ化されたパラメータ
6.1B
5.1B
推論
いいえ
いいえ
Precision
FP8
FP8
コンテキスト長
131K
131K
Max Tokens
131K
8K
対応機能
Serverless
対応
対応
Serverless LoRA
サポートされていません
サポートされていません
Fine-tuning
サポートされていません
サポートされていません
Embeddings
サポートされていません
サポートされていません
Rerankers
サポートされていません
サポートされていません
Image入力をサポートする
サポートされていません
サポートされていません
JSON Mode
対応
対応
構造化されたOutputs
サポートされていません
サポートされていません
ツール
対応
サポートされていません
Fim Completion
サポートされていません
サポートされていません
Chat Prefix Completion
対応
サポートされていません
Ling-flash-2.0比較において
見てくださいLing-flash-2.0主要な次元において他の人気のあるモデルと比較します。
VS

MiniMax-M2.5
VS

Step-3.5-Flash
VS

MiniMax-M2.1
VS

MiniMax-M2
VS

Qwen3-VL-32B-Instruct
VS

Qwen3-VL-32B-Thinking
VS

Qwen3-VL-30B-A3B-Instruct
VS

Qwen3-VL-30B-A3B-Thinking
VS

Qwen3-VL-235B-A22B-Instruct
VS

Qwen3-VL-235B-A22B-Thinking
VS

Qwen3-Omni-30B-A3B-Instruct
VS

Ring-flash-2.0
VS

Qwen3-Omni-30B-A3B-Captioner
VS

Qwen3-Omni-30B-A3B-Thinking
VS

Qwen3-Next-80B-A3B-Instruct
VS

Qwen3-Next-80B-A3B-Thinking
VS
gpt-oss-120b
VS
gpt-oss-20b
VS

Qwen3-Coder-30B-A3B-Instruct
VS

Qwen3-30B-A3B-Thinking-2507
