DeepSeek
Text Generation
DeepSeek-V3.2
DeepSeek-V3.2 是一个模型,结合了高计算效率与卓越的推理和智能体性能。其方法基于三个关键技术突破:DeepSeek 稀疏注意力(DSA),这是一种有效的注意力机制,在保持模型性能的情况下大幅降低了计算复杂度,特别优化于长上下文场景;一个可扩展的强化学习框架,使得其性能可与 GPT-5 比拟,推理能力与高计算变体的 Gemini-3.0-Pro 相当;以及一个大型智能任务合成管道,将推理整合到工具使用场景中,提高在复杂交互环境中的合规性和泛化能力。该模型在 2025 年国际数学奥林匹克(IMO)和国际信息学奥林匹克竞赛(IOI)中取得了金牌成绩。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2-Exp
DeepSeek-V3.2-Exp 是 DeepSeek 模型的一个实验版本,基于 V3.1-Terminus 构建。它首次引入 DeepSeek Sparse Attention(DSA),实现了对长上下文的更快速、更高效的训练和推理。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1-Terminus
DeepSeek-V3.1-Terminus 是一个更新版本,建立在 V3.1 的优势上,同时解决关键用户反馈问题。它在语言一致性方面有所改进,减少了中英文混合文本和偶尔出现的异常字符。同时,还在 Code Agent 和 Search Agent 性能上进行了升级。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3
DeepSeek-V3-0324 在多个关键方面表现出明显的改进,超越了它的前身 DeepSeek-V3,包括推理性能的大幅提升、更强的前端开发技能和更智能的工具使用能力。...
上下文长度:
164K
最大输出长度:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct-0905
Kimi K2-Instruct-0905,是一个最先进的专家混合(MoE)语言模型,是Kimi K2的最新、最强版本。关键特性包括增强的编码能力,尤其是前端和工具调用,文本长度扩展到256k tokens,并且与各种代理框架的集成得到了改进。...
上下文长度:
262K
最大输出长度:
262K
Input:
$
0.4
/ M Tokens
Output:
$
2
/ M Tokens
OpenAI
Text Generation
gpt-oss-120b
gpt-oss 系列是 OpenAI 的开源模型,旨在用于强大的推理、代理任务和多功能的开发者使用案例。gpt-oss-120b 用于生产、通用、高推理使用案例,这些使用案例适合单个 80GB GPU(如 NVIDIA H100 或 AMD MI300X)。...
上下文长度:
131K
最大输出长度:
8K
Input:
$
0.05
/ M Tokens
Output:
$
0.45
/ M Tokens
OpenAI
Text Generation
gpt-oss-20b
gpt-oss系列是OpenAI的开源权重模型,旨在实现强大的推理、代理任务和多样化的开发者使用场景。gpt-oss-20b适用于较低延迟、本地或专业化使用场景。...
上下文长度:
131K
最大输出长度:
8K
Input:
$
0.04
/ M Tokens
Output:
$
0.18
/ M Tokens

Z.ai
Text Generation
GLM-4.6
与GLM-4.5相比,GLM-4.6带来了几个关键改进,包括将上下文窗口扩展到200K tokens、更优异的编码性能、先进的推理能力、更有能力的代理以及精炼的写作。...
上下文长度:
205K
最大输出长度:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

