約QwQ-32B
QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.15
/
$
0.58
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
いいえ
専門家の混合
いいえ
合計パラメータ
32B
アクティブ化されたパラメータ
32.5B
推論
いいえ
Precision
FP8
コンテキスト長
131K
Max Tokens
131K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
サポートされていません
構造化されたOutputs
サポートされていません
ツール
対応
Fim Completion
サポートされていません
Chat Prefix Completion
サポートされていません
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

Qwen
chat
Qwen3-VL-32B-Instruct
リリース日:2025/10/21
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
リリース日:2025/10/21
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
リリース日:2025/10/15
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
リリース日:2025/10/15
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2.0
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
リリース日:2025/10/04
Total Context:
262K
Max output:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
リリース日:2025/10/04
Total Context:
262K
Max output:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
リリース日:2025/10/05
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
リリース日:2025/10/11
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
リリース日:2025/08/13
$
0.29
/ Video
