关于Qwen3-Embedding-4B
Qwen3-Embedding-4B是Qwen3 Embedding系列中最新的专有模型,专为文本Embedding和排序任务而设计。该4B参数模型基于Qwen3系列的密集基础模型构建,支持最长32K的上下文长度,可以生成最高2560维的Embedding。该模型继承了卓越的多语言能力,支持超过100种语言,同时具备长篇文本理解和推理技能。在MTEB多语言排行榜上取得了出色的表现(得分69.45),并在各种任务中展示了优异的结果,包括文本检索、代码检索、文本分类、聚类和双语文本挖掘。该模型提供灵活的向量维度(32到2560)和指令感知能力,以增强在特定任务和场景中的性能,提供效率和效果之间的最佳平衡。
可用的 Serverless
立即运行查询,仅按使用量付费
$
0.02
每百万个 Token
元数据
规格
州
Available
建筑
校准的
不
专家混合
不
总参数
4B
激活的参数
4B
推理
不
精度
FP8
上下文长度
33K
最大输出长度
支持功能
Serverless
支持
Serverless LoRA
不支持
微调
不支持
Embeddings
支持
Rerankers
不支持
支持 Image Input
不支持
JSON Mode
不支持
结构化Outputs
不支持
工具
不支持
FIM 补全
不支持
对话前缀补全
不支持
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
