关于Qwen3-Reranker-4B
Qwen3-Reranker-4B 是 Qwen3 系列中的一个强大 Text 重排 模型,拥有 40 亿个参数。它被设计用于通过基于查询重新排序初始文档列表,显著提高搜索结果的相关性。这个 模型 继承了其 Qwen3 基础的核心优势,包括对长 Text(最长达 32k 上下文长度)的卓越理解能力,以及在超过 100 种语言中的稳健能力。根据基准测试,Qwen3-Reranker-4B 模型在各种 Text 和代码检索评估中表现出色。
了解Qwen3-Reranker-4B如何通过智能重新排序搜索结果,提高信息检索效果,确保用户能够快速在各种语言和长篇Text中找到最相关的内容。
企业搜索
改善内部文件搜索的相关性,提高员工的生产力和信息发现能力。
用例示例:
"重新排序了100份关于“远程工作指南”的内部HR政策文件,将最新和最相关的政策置于首位,大大节省了员工的搜索时间。"
电商重排序
通过根据用户查询和偏好重新排序商品,优化产品推荐,增加转化率。
用例示例:
"对于搜索“游戏笔记本”的用户,将初始匹配的50件产品重排序,以优先考虑高端GPU和好评的商品,从而实现点击率增加15%。"
开发者资源搜索
增强开发者的代码搜索和文档发现能力,快速呈现最相关的解决方案。
用例示例:
"针对特定React组件集成查询,重新排序了20个潜在的JavaScript代码片段,突出最有效和最新的示例,减少了开发时间。"
法律文件相关性
通过重新排序判例法、法规或合同,加速法律研究,优先考虑最相关的信息。
用例示例:
"对于“GDPR数据泄露合规性”查询,重新排序了30份法律文件,将最新和直接适用的法规置于首位,大大帮助法律顾问进行审查。"
元数据
规格
州
Deprecated
建筑
Dense Transformer
校准的
是
专家混合
不
总参数
4B
激活的参数
4B
推理
不
精度
FP8
上下文长度
33K
最大输出长度
与其他模型进行比较
看看这个模型与其他模型相比表现如何。

Qwen
chat
Qwen3-VL-32B-Instruct
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
发行日期:2025年10月21日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
发行日期:2025年10月15日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
发行日期:2025年10月4日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
发行日期:2025年10月5日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
发行日期:2025年10月11日
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
发行日期:2025年8月13日
$
0.29
/ Video
