Qwen3.5-122B-A10B

Qwen3.5-122B-A10B

Qwen/Qwen3.5-122B-A10B

关于Qwen3.5-122B-A10B

Qwen3.5-122B-A10B is a native multimodal large language model from the Qwen team, with 122B total parameters and only 10B activated. It features an efficient hybrid architecture combining Gated Delta Networks with sparse Mixture-of-Experts (MoE), natively supporting a 256K context length extensible up to ~1M tokens. Through early fusion training, it achieves unified vision-language capabilities supporting text, image, and video understanding, with strong performance across knowledge, reasoning, coding, agents, visual understanding, and multilingual benchmarks, surpassing GPT-5-mini and Qwen3-235B-A22B on multiple metrics. It defaults to thinking mode, supports tool calling, and covers 201 languages and dialects

可用的 Serverless

立即运行查询,仅按使用量付费

每 100 万 token(Input/Output)

$

0.26

/ M Tokens

每 100 万 token(Input/Output)

$

2.08

/ M Tokens

元数据

创建

许可证

APACHE-2.0

提供者

Qwen

规格

Available

建筑

Hybrid Sparse MoE

校准的

专家混合

总参数

122B

激活的参数

10B

推理

精度

FP8

上下文长度

262K

最大输出长度

262K

支持功能

Serverless

支持

Serverless LoRA

不支持

微调

不支持

Embeddings

不支持

Rerankers

不支持

支持 Image Input

支持

JSON Mode

支持

结构化Outputs

不支持

工具

支持

FIM 补全

不支持

对话前缀补全

不支持

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?