关于Qwen3-Embedding-0.6B
Qwen3-Embedding-0.6B 是 Qwen3 Embedding 系列中最新的专有模型,专为文本嵌入和排名任务而设计。基于 Qwen3 系列的密集基础模型构建,该 0.6B 参数模型支持最大 32K 的上下文长度,能够生成维度高达 1024 的嵌入。模型继承了卓越的多语种功能,支持超过 100 种语言,同时具备长文本理解和推理技能。在 MTEB 多语言排行榜上取得了强劲的表现(得分 64.33),并在包括文本检索、代码检索、文本分类、聚类和双文本挖掘等各项任务中展现出卓越的表现。模型提供了灵活的向量尺寸(32 到 1024)和指令感知能力,以增强特定任务和场景的性能表现,使其成为优先考虑效率和效能的应用的理想选择。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.01
每百万个 Token
元数据
规格
州
Available
建筑
校准的
是
专家混合
不
总参数
1B
激活的参数
0.6B
推理
不
精度
FP8
上下文长度
33K
最大输出长度
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
不支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
