Qwen3.5-122B-A10B

Qwen3.5-122B-A10B

Qwen/Qwen3.5-122B-A10B

約Qwen3.5-122B-A10B

Qwen3.5-122B-A10B is a native multimodal large language model from the Qwen team, with 122B total parameters and only 10B activated. It features an efficient hybrid architecture combining Gated Delta Networks with sparse Mixture-of-Experts (MoE), natively supporting a 256K context length extensible up to ~1M tokens. Through early fusion training, it achieves unified vision-language capabilities supporting text, image, and video understanding, with strong performance across knowledge, reasoning, coding, agents, visual understanding, and multilingual benchmarks, surpassing GPT-5-mini and Qwen3-235B-A22B on multiple metrics. It defaults to thinking mode, supports tool calling, and covers 201 languages and dialects

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

100万トークン(Input/Output)ごとに

$

0.26

/ M Tokens

100万トークン(Input/Output)ごとに

$

2.08

/ M Tokens

メタデータ

作成する

ライセンス

APACHE-2.0

プロバイダー

Qwen

ハギングフェイス

仕様

Available

建築

Hybrid Sparse MoE

キャリブレートされた

はい

専門家の混合

はい

合計パラメータ

122B

アクティブ化されたパラメータ

10B

推論

いいえ

Precision

FP8

コンテキスト長

262K

Max Tokens

262K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

対応

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

対応

Fim Completion

サポートされていません

Chat Prefix Completion

サポートされていません

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?