关于Qwen3-235B-A22B-Instruct-2507
Qwen3-235B-A22B-Instruct-2507 是 Qwen3 系列中由阿里云的 Qwen 团队开发的旗舰专家混合(MoE)大型语言模型。该模型总共有 2350 亿个参数,每次前向传递激活 220 亿个参数。它作为 Qwen3-235B-A22B 非思考模式的更新版本发布,在指令跟随、逻辑推理、Text 理解、数学、科学、编码和工具使用等一般能力方面进行了重大改进。此外,该模型在多种语言的长尾知识覆盖方面提供了巨大的提升,并在主观和开放性任务中显示出与用户偏好的更好对齐,从而能够生成更有帮助的响应和更高质量的 Text 生成。值得注意的是,它本身支持一个广泛的 256K(262,144 tokens)上下文窗口,增强了其长上下文理解能力。此版本仅支持非思考模式,不生成 <think> 块,旨在为直接问答和知识检索等任务提供更有效和精准的响应。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.09
/
$
0.6
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
是
专家混合
是
总参数
235B
激活的参数
22B
推理
不
精度
FP8
上下文长度
262K
最大输出长度
262K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
