
Qwen
Text Generation
Qwen3-VL-32B-Instruct
Qwen3-VL 是 Qwen3 系列中的 Vision-语言 模型,在各种 Vision-语言 (VL) 基准测试中实现了最先进的性能(SOTA)。该 模型 支持高分辨率 Image Input,最高可达百万像素级别,并拥有在一般视觉理解、多语言 OCR、细粒度视觉对齐和视觉对话方面的强大能力。作为 Qwen3 系列的一部分,它继承了强大的语言基础,使其能够理解和执行复杂的指令。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-VL-32B-Thinking
Qwen3-VL-Thinking 是 Qwen3-VL 系列的一个版本,专为复杂的视觉推理任务进行了优化。它引入了“思考模式”,使其在提供最终答案之前能够生成详细的中间推理步骤(思维链条)。这种设计显著提升了模型在视觉问题回答(VQA)和其他需要多步逻辑、规划和深入分析的 Vision-语言任务上的表现。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-8B-Instruct
Qwen3-VL-8B-Instruct 是 Qwen3 系列的 Vision-语言模型,展示了在通用视觉理解、以视觉为中心的对话以及图像中多语言 Text 识别方面的强大能力。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Instruct
Qwen3-VL-235B-A22B-Instruct 是一个 2350 亿参数的专家混合(MoE)Vision-语言模型,具有 220 亿激活参数。它是 Qwen3-VL-235B-A22B 的指令调优版本,并且为 Chat 应用程序对齐。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Thinking
Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 系列中的模型之一,是一个经过增强推理的 Thinking 版本,在许多 Multimodal 推理基准上达到最先进的(SOTA)结果,在 STEM、数学、因果分析以及基于逻辑和证据的答案方面表现出色。它采用了一个拥有 2350 亿个总参数和 220 亿个活跃参数的专家混合(MoE)架构。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Instruct
Qwen3-VL系列提供卓越的Text理解与生成、更深入的视觉感知与推理、扩展的上下文长度、增强的空间和Video动态理解能力,以及更强的代理互动能力。可用的Dense和MoE架构从边缘到云端扩展,还有指导和推理增强的Thinking版本。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Thinking
Qwen3-VL系列提供卓越的Text理解与生成、更深入的视觉感知与推理、扩展的上下文长度、增强的空间和Video动态理解能力,以及更强的代理互动能力。可用的Dense和MoE架构从边缘到云端扩展,还有指导和推理增强的Thinking版本。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Image-to-Video
Wan2.2-I2V-A14B
$
0.29
/ Video
Input:
$
text
/ Video


Qwen
Text-to-Video
Wan2.2-T2V-A14B
$
0.29
/ Video
Input:
$
text
/ Video


Qwen
Text-to-Image
Qwen-Image
$
0.02
/ Image
Input:
$
text
/ Image


Qwen
Image-to-Image
Qwen-Image-Edit
$
0.04
/ Image
Input:
$
text
/ Image


Qwen
Text Generation
Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder-480B-A35B-Instruct 是迄今为止阿里巴巴发布的最具自主性的代码模型。它是一个专家混合(MoE)模型,具有4800亿个总参数和350亿个激活参数,平衡了效率和性能。该模型本身支持256K(大约262,144)个token的上下文长度,可以通过YaRN等外推方法扩展到最多100万个tokens,使其能够处理存储库规模的代码库和复杂的编程任务。Qwen3-Coder 专门为自主编码工作流程而设计,它不仅能够生成代码,还能自主与开发者工具和环境交互,以解决复杂问题。在各种编码和自主基准测试中,它已在开源模型中取得最先进的结果,其性能可与领先模型如 Claude Sonnet 4 相媲美。除了模型之外,阿里巴巴还开源了 Qwen Code,这是一种旨在充分释放其强大自主编码能力的命令行工具。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.25
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-480B-A35B
Qwen3-Coder-480B-A35B-Instruct is the most agentic code model released by Alibaba to date. It is a Mixture-of-Experts (MoE) model with 480 billion total parameters and 35 billion activated parameters, balancing efficiency and performance. The model natively supports a 256K (approximately 262,144) token context length, which can be extended up to 1 million tokens using extrapolation methods like YaRN, enabling it to handle repository-scale codebases and complex programming tasks. Qwen3-Coder is specifically designed for agentic coding workflows, where it not only generates code but also autonomously interacts with developer tools and environments to solve complex problems. It has achieved state-of-the-art results among open models on various coding and agentic benchmarks, with performance comparable to leading models like Claude Sonnet 4. Alongside the model, Alibaba has also open-sourced Qwen Code, a command-line tool designed to fully unleash its powerful agentic coding capabilities...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.25
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-30B-A3B-Instruct
Qwen3-Coder-30B-A3B-Instruct 是由阿里巴巴的 Qwen 团队开发的 Qwen3 系列的一个代码模型。作为一个精简和优化的模型,它在提升编码能力的同时保持了令人印象深刻的性能和效率。它在复杂任务中表现出显著的性能优势,如 Agentic Coding、Agentic Browser-Use 和其他基础编码任务。该模型本地支持 256K token 的长上下文,可以扩展到 1M token,从而实现更好的库级理解和处理。此外,它为 Qwen Code 和 CLINE 等平台提供了强大的 Agentic 编码支持,具有专门设计的函数调用格式。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.07
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Instruct-2507
Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。它是一个拥有 305 亿个总参数和 33 亿个激活参数的专家混合 (MoE) 模型。这个版本具有关键的增强功能,包括在指令遵循、逻辑推理、Text 理解、数学、科学、编码和工具使用等一般能力方面的显著改进。它还在多语言长尾知识覆盖方面显示出显著的提高,并在主观和开放式任务中与用户偏好有更好的对齐,能够提供更有帮助的响应和更高质量的 Text 生成。此外,它在长上下文理解方面的能力已增强至 256K。此模型仅支持非思考模式,并且不会在其 Output 中生成 `<think></think>` 块。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Thinking-2507
Qwen3-30B-A3B-Thinking-2507 是 Qwen3 系列中最新的思考模型,由阿里巴巴的 Qwen 团队发布。作为一个 Mixture-of-Experts (MoE) 模型,拥有总计305亿个参数和33亿个活跃参数,它专注于增强复杂任务的能力。该模型在推理任务上展示了显著提高的性能,包括逻辑推理、数学、科学、编码和通常需要人类专长的学术基准测试。它还表现出显著更好的一般能力,例如遵循指令、工具使用、Text 生成和对人类偏好的对齐。该模型原生支持256K长上下文理解能力,并且可以扩展到100万个tokens。该版本专为‘思考模式’而设计,以通过逐步推理解决高度复杂的问题,并在代理能力方面也表现出色。...
上下文长度:
262K
最大输出长度:
131K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Instruct-2507
Qwen3-235B-A22B-Instruct-2507 是 Qwen3 系列中由阿里云的 Qwen 团队开发的旗舰专家混合(MoE)大型语言模型。该模型总共有 2350 亿个参数,每次前向传递激活 220 亿个参数。它作为 Qwen3-235B-A22B 非思考模式的更新版本发布,在指令跟随、逻辑推理、Text 理解、数学、科学、编码和工具使用等一般能力方面进行了重大改进。此外,该模型在多种语言的长尾知识覆盖方面提供了巨大的提升,并在主观和开放性任务中显示出与用户偏好的更好对齐,从而能够生成更有帮助的响应和更高质量的 Text 生成。值得注意的是,它本身支持一个广泛的 256K(262,144 tokens)上下文窗口,增强了其长上下文理解能力。此版本仅支持非思考模式,不生成 <think> 块,旨在为直接问答和知识检索等任务提供更有效和精准的响应。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Thinking-2507
Qwen3-235B-A22B-Thinking-2507 是 Qwen3 大型语言模型系列的成员,由阿里巴巴的 Qwen 团队开发,专门从事高度复杂的推理任务。该模型基于专家混合(MoE)架构,具有 2350 亿个总参数,约 220 亿个激活参数每个 token,增强了计算效率,同时保持了强大的性能。作为一个专门的“思考”模型,它在需要人类专业知识的任务中表现出显著的性能改进,例如逻辑推理、数学、科学、编码和学术基准,获取了开源思考模型中最先进的成果。此外,该模型具有增强的通用能力,如指令跟随、工具使用和 Text 生成,并原生支持 256K 长上下文理解能力,使其在需要深度推理和处理长文档的场景中表现出色。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.13
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-32B
Qwen3-32B是Qwen系列中的最新大型语言模型,拥有32.8B的参数。此模型独特地支持在思维模式(用于复杂逻辑推理、数学和编程)和非思维模式(用于高效的通用对话)之间无缝切换。它表现出显著增强的推理能力,超越了先前的QwQ和Qwen2.5 instruct模型在数学、代码生成和常识逻辑推理方面的表现。该模型在创意写作、角色扮演和多轮对话的人类偏好对齐方面表现出色。此外,它支持超过100种语言和方言,具有强大的多语言指令遵循和翻译能力...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.14
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-14B
Qwen3-14B 是 Qwen 系列中的最新大型语言模型,拥有 14.8B 参数。该模型独特地支持在思维模式(用于复杂的逻辑推理、数学和编程)和非思维模式(用于高效的通用对话)之间无缝切换。它展示了显著增强的推理能力,超越了之前的 QwQ 和 Qwen2.5 instruct 模型在数学、代码生成和常识性逻辑推理方面的表现。模型在人类偏好对齐方面表现出色,适用于创意写作、角色扮演和多轮对话。此外,它支持 100 多种语言和方言,具有强大的多语言指令跟随和翻译能力。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.07
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-8B
Qwen3-8B是Qwen系列中最新的大型语言模型,具有8.2B参数。该模型独特地支持在思维模式(用于复杂的逻辑推理、数学和编码)和非思维模式(用于高效、通用的对话)之间无缝切换。它在推理能力上显著增强,超越了之前的QwQ和Qwen2.5指令模型,在数学、代码生成和常识逻辑推理方面表现出色。该模型在人类偏好对齐方面表现优异,适用于创意写作、角色扮演和多轮对话。此外,它支持100多种语言和方言,具有强大的多语言指令跟随和翻译能力。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.06
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.06
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-8B
Qwen3-Reranker-8B 是 Qwen3 系列中的 80 亿参数 text 重排序模型。它旨在通过准确地根据与查询的相关性重新排序文档来优化和提升搜索结果的质量。基于强大的 Qwen3 基础模型构建,它在理解长文本方面表现出色,具有 32k 的上下文长度,并支持超过 100 种语言。Qwen3-Reranker-8B 模型是一个灵活系列的一部分,提供在各种 text 和代码检索场景中具有最先进的性能...
$
0.04
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-8B
Qwen3-Embedding-8B 是 Qwen3 Embedding 系列中的最新专有模型,专为文本嵌入和排名任务设计。该模型建立在 Qwen3 系列的密集基础模型之上,拥有 8B 参数,支持最长 32K 的上下文长度,可以生成最多 4096 维度的嵌入。该模型继承了出色的多语言功能,支持超过 100 种语言,并具备长文本理解和推理能力。截至 2025 年 6 月 5 日,它在 MTEB 多语言排行榜上排名第一(分数为 70.58),并展示了在各种任务中的最先进性能,包括文本检索、代码检索、文本分类、聚类和双文本挖掘。该模型提供灵活的向量维度(32 到 4096)和指令感知能力,增强在特定任务和场景中的表现。...
Input:
$
0.04
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-4B
Qwen3-Embedding-4B是Qwen3 Embedding系列中最新的专有模型,专为文本Embedding和排序任务而设计。该4B参数模型基于Qwen3系列的密集基础模型构建,支持最长32K的上下文长度,可以生成最高2560维的Embedding。该模型继承了卓越的多语言能力,支持超过100种语言,同时具备长篇文本理解和推理技能。在MTEB多语言排行榜上取得了出色的表现(得分69.45),并在各种任务中展示了优异的结果,包括文本检索、代码检索、文本分类、聚类和双语文本挖掘。该模型提供灵活的向量维度(32到2560)和指令感知能力,以增强在特定任务和场景中的性能,提供效率和效果之间的最佳平衡。...
Input:
$
0.02
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-0.6B
Qwen3-Reranker-0.6B 是 Qwen3 系列中的一款 Text 重新排序模型。它专门设计用于通过根据给定查询的相关性重新排序文档来优化初步检索系统的结果。该模型具有 0.6 亿个参数和 32k 的上下文长度,利用其 Qwen3 基础的强大多语言(支持 100 多种语言)、长文本理解和推理能力。评估结果显示,Qwen3-Reranker-0.6B 在各种 Text 检索基准测试中表现出色,包括 MTEB-R、CMTEB-R 和 MLDR...
$
0.01
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-0.6B
Qwen3-Embedding-0.6B 是 Qwen3 Embedding 系列中最新的专有模型,专为文本嵌入和排名任务而设计。基于 Qwen3 系列的密集基础模型构建,该 0.6B 参数模型支持最大 32K 的上下文长度,能够生成维度高达 1024 的嵌入。模型继承了卓越的多语种功能,支持超过 100 种语言,同时具备长文本理解和推理技能。在 MTEB 多语言排行榜上取得了强劲的表现(得分 64.33),并在包括文本检索、代码检索、文本分类、聚类和双文本挖掘等各项任务中展现出卓越的表现。模型提供了灵活的向量尺寸(32 到 1024)和指令感知能力,以增强特定任务和场景的性能表现,使其成为优先考虑效率和效能的应用的理想选择。...
Input:
$
0.01
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-32B-Instruct
Qwen2.5-VL-32B-Instruct 是由 Qwen 团队发布的多人模式大型语言模型,属于 Qwen2.5-VL 系列。这个模型不仅擅长识别常见物体,还具有分析 Text、图表、图标、图形和 Image 中布局的能力。它作为一个视觉代理,可以进行推理并动态指示工具,能够使用电脑和电话。此外,该模型可以精确定位 Image 中的对象,并为诸如发票和表格之类的数据生成结构化 Output。与之前的版本 Qwen2-VL 相比,经过强化学习调整后的这种版本增强了数学解题能力,并优化了应答风格以更好地符合人类的偏好。...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.27
/ M Tokens

Qwen
Text Generation
QwQ-32B
QwQ是Qwen系列的推理模型。与传统指令调整模型相比,QwQ能够思考和推理,可以在下游任务中实现显著增强的性能,特别是难题。QwQ-32B是中型推理模型,能够在性能上与最先进的推理模型,例如DeepSeek-R1、o1-mini竞争。该模型融入了RoPE、SwiGLU、RMSNorm和Attention QKV bias等技术,具有64层和40个Q注意力头(8个用于GQA架构中的KV)...
上下文长度:
131K
最大输出长度:
131K
Input:
$
0.15
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.58
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-72B-Instruct
Qwen2.5-VL 是 Qwen2.5 系列中的一种 Vision-语言模型,在多个方面显示出显著增强:它具有强大的视觉理解能力,能够识别常见对象,同时分析 Image 中的文本、图表和布局;它作为一个能够推理和动态指引工具的视觉代理;它能够理解超过1小时长的视频并捕捉关键事件;它通过生成边界框或点准确定位 Image 中的物体;并支持扫描数据(如发票和表单)的结构化 Output。该模型在包括 Image、Video 和代理任务的各个基准测试中表现出色。...
上下文长度:
131K
最大输出长度:
4K
Input:
$
0.59
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct
Qwen2.5-72B-Instruct 是阿里云发布的最新大型语言模型系列之一。72B 模型在编码和数学等领域表现出显著的改进。该模型还提供多语言支持,涵盖超过29种语言,包括中文和英语。它在遵循指令、理解结构化数据以及生成结构化 Output 方面显示出显著的改进,尤其是在 JSON 格式方面。...
上下文长度:
33K
最大输出长度:
4K
Input:
$
0.59
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-7B-Instruct
Qwen2.5-7B-Instruct 是阿里云发布的最新大型语言模型系列之一。这个 7B 模型在编码和数学等领域表现出显著的改进。该模型还提供多语言支持,涵盖 29 种以上的语言,包括中文、英语等。模型在指令遵循、理解结构化数据和生成结构化 Output(特别是 JSON)方面显示出显著的增强。...
上下文长度:
33K
最大输出长度:
4K
Input:
$
0.05
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.05
/ M Tokens

