Qwen3-235B-A22B-Thinking-2507

Qwen3-235B-A22B-Thinking-2507

Qwen/Qwen3-235B-A22B-Thinking-2507

約Qwen3-235B-A22B-Thinking-2507

Qwen3-235B-A22B-Thinking-2507は、アリババのQwenチームによって開発されたQwen3の大規模言語モデルシリーズのメンバーで、非常に複雑な推論タスクを専門としています。このModelは、Mixture-of-Experts (MoE)アーキテクチャに基づいており、合計2350億のパラメータと、tokenあたり約220億のアクティブパラメータを持ち、計算効率を高めながら強力なパフォーマンスを維持しています。専用の「thinking」Modelとして、人間の専門知識を必要とする課題(論理的推論、数学、科学、コーディング、学術ベンチマークなど)において、オープンソースのthinkingモデルの中で最先端の結果を達成しています。さらに、このModelは、指示の追従、ツールの使用、Text生成といった一般的な能力が強化されており、256Kのロングコンテキスト理解能力をネイティブにサポートし、深い推論や長文の処理を必要とするシナリオに理想的です。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

100万トークン(Input/Output)ごとに

$

0.13

/ M Tokens

100万トークン(Input/Output)ごとに

$

0.6

/ M Tokens

メタデータ

作成する

ライセンス

APACHE-2.0

プロバイダー

Qwen

ハギングフェイス

仕様

Available

建築

Mixture of Experts

キャリブレートされた

はい

専門家の混合

はい

合計パラメータ

235B

アクティブ化されたパラメータ

22B

推論

いいえ

Precision

FP8

コンテキスト長

262K

Max Tokens

262K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?