关于Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder-480B-A35B-Instruct 是迄今为止阿里巴巴发布的最具自主性的代码模型。它是一个专家混合(MoE)模型,具有4800亿个总参数和350亿个激活参数,平衡了效率和性能。该模型本身支持256K(大约262,144)个token的上下文长度,可以通过YaRN等外推方法扩展到最多100万个tokens,使其能够处理存储库规模的代码库和复杂的编程任务。Qwen3-Coder 专门为自主编码工作流程而设计,它不仅能够生成代码,还能自主与开发者工具和环境交互,以解决复杂问题。在各种编码和自主基准测试中,它已在开源模型中取得最先进的结果,其性能可与领先模型如 Claude Sonnet 4 相媲美。除了模型之外,阿里巴巴还开源了 Qwen Code,这是一种旨在充分释放其强大自主编码能力的命令行工具。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.25
/
$
1
每 100 万 token(Input/Output)
元数据
规格
州
Available
建筑
校准的
不
专家混合
是
总参数
480B
激活的参数
35B
推理
不
精度
FP8
上下文长度
262K
最大输出长度
262K
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
不支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
支持
结构化Outputs
不支持
工具
支持
FIM 补全
不支持
对话前缀补全
支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
