約QwQ-32B

QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

0.15

$

0.58

100万トークン(Input/Output)ごとに

メタデータ

作成する

2025/03/06

ライセンス

APACHE-2.0

プロバイダー

Qwen

ハギングフェイス

仕様

Available

建築

キャリブレートされた

いいえ

専門家の混合

いいえ

合計パラメータ

32B

アクティブ化されたパラメータ

32.5B

推論

いいえ

Precision

FP8

コンテキスト長

131K

Max Tokens

131K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

サポートされていません

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

サポートされていません

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow