尖端技术

AI 模型库

一个API可以对200多个尖端AI模型进行推理,并在几秒钟内部署

尖端技术

AI 模型库

一个API可以对200多个尖端AI模型进行推理,并在几秒钟内部署

尖端技术

AI 模型库

一个API可以对200多个尖端AI模型进行推理,并在几秒钟内部署

DeepSeek

Text Generation

DeepSeek-V3.2

DeepSeek-V3.2 是一个模型,结合了高计算效率与卓越的推理和智能体性能。其方法基于三个关键技术突破:DeepSeek 稀疏注意力(DSA),这是一种有效的注意力机制,在保持模型性能的情况下大幅降低了计算复杂度,特别优化于长上下文场景;一个可扩展的强化学习框架,使得其性能可与 GPT-5 比拟,推理能力与高计算变体的 Gemini-3.0-Pro 相当;以及一个大型智能任务合成管道,将推理整合到工具使用场景中,提高在复杂交互环境中的合规性和泛化能力。该模型在 2025 年国际数学奥林匹克(IMO)和国际信息学奥林匹克竞赛(IOI)中取得了金牌成绩。...

上下文长度:

164K

最大输出长度:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.42

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.2-Exp

DeepSeek-V3.2-Exp 是 DeepSeek 模型的一个实验版本,基于 V3.1-Terminus 构建。它首次引入 DeepSeek Sparse Attention(DSA),实现了对长上下文的更快速、更高效的训练和推理。...

上下文长度:

164K

最大输出长度:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.41

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1-Terminus

DeepSeek-V3.1-Terminus 是一个更新版本,建立在 V3.1 的优势上,同时解决关键用户反馈问题。它在语言一致性方面有所改进,减少了中英文混合文本和偶尔出现的异常字符。同时,还在 Code Agent 和 Search Agent 性能上进行了升级。...

上下文长度:

164K

最大输出长度:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3

DeepSeek-V3-0324 在多个关键方面表现出明显的改进,超越了它的前身 DeepSeek-V3,包括推理性能的大幅提升、更强的前端开发技能和更智能的工具使用能力。...

上下文长度:

164K

最大输出长度:

164K

Input:

$

0.25

/ M Tokens

Output:

$

1

/ M Tokens

Moonshot AI

Text Generation

Kimi-K2-Instruct-0905

Kimi K2-Instruct-0905,是一个最先进的专家混合(MoE)语言模型,是Kimi K2的最新、最强版本。关键特性包括增强的编码能力,尤其是前端和工具调用,文本长度扩展到256k tokens,并且与各种代理框架的集成得到了改进。...

上下文长度:

262K

最大输出长度:

262K

Input:

$

0.4

/ M Tokens

Output:

$

2

/ M Tokens

OpenAI

Text Generation

gpt-oss-120b

gpt-oss 系列是 OpenAI 的开源模型,旨在用于强大的推理、代理任务和多功能的开发者使用案例。gpt-oss-120b 用于生产、通用、高推理使用案例,这些使用案例适合单个 80GB GPU(如 NVIDIA H100 或 AMD MI300X)。...

上下文长度:

131K

最大输出长度:

8K

Input:

$

0.05

/ M Tokens

Output:

$

0.45

/ M Tokens

OpenAI

Text Generation

gpt-oss-20b

gpt-oss系列是OpenAI的开源权重模型,旨在实现强大的推理、代理任务和多样化的开发者使用场景。gpt-oss-20b适用于较低延迟、本地或专业化使用场景。...

上下文长度:

131K

最大输出长度:

8K

Input:

$

0.04

/ M Tokens

Output:

$

0.18

/ M Tokens

Z.ai

Text Generation

GLM-4.6

与GLM-4.5相比,GLM-4.6带来了几个关键改进,包括将上下文窗口扩展到200K tokens、更优异的编码性能、先进的推理能力、更有能力的代理以及精炼的写作。...

上下文长度:

205K

最大输出长度:

205K

Input:

$

0.39

/ M Tokens

Output:

$

1.9

/ M Tokens

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?

准备好 加速您的人工智能开发吗?