Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507

Qwen/Qwen3-235B-A22B-Instruct-2507

約Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507は、Alibaba CloudのQwenチームによって開発されたQwen3シリーズのフラッグシップMixture-of-Experts(MoE)大規模言語モデルです。このモデルは、合計2350億のパラメータを持ち、各フォワードパスで22億が活性化されます。Qwen3-235B-A22B非思考モードの更新版としてリリースされ、指示のフォロー、論理的な推論、テキスト理解、数学、科学、コーディング、およびツールの使用などの一般的な機能において重要な強化を備えています。さらに、このモデルは複数の言語にわたる長尾の知識カバレッジにおいて大幅な向上を示し、主観的でオープンエンドのタスクにおいてユーザーの好みにより良く合致するようになり、より役立つ応答と高品質なテキスト生成を可能にします。特に、256K (262,144 tokens) の広範なコンテキストウィンドウをネイティブにサポートし、長文コンテキストの理解能力を向上させます。このバージョンは非思考モードに専念し、<think>ブロックを生成せず、直接的なQ&Aや知識検索のようなタスクにおいてより効率的で正確な応答を提供することを目指しています。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

100万トークン(Input/Output)ごとに

$

0.09

/ M Tokens

100万トークン(Input/Output)ごとに

$

0.6

/ M Tokens

メタデータ

作成する

ライセンス

APACHE-2.0

プロバイダー

Qwen

ハギングフェイス

仕様

Available

建築

Mixture of Experts

キャリブレートされた

はい

専門家の混合

はい

合計パラメータ

235B

アクティブ化されたパラメータ

22B

推論

いいえ

Precision

FP8

コンテキスト長

262K

Max Tokens

262K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?