DeepSeek
Text Generation
DeepSeek-V4-Pro
DeepSeek-V4-Pro is DeepSeek's flagship open-source MoE model with 1.6T total parameters and 49B activated, purpose-built for frontier-level reasoning, coding, and agentic tasks. Supporting a 1M-token context window and three reasoning effort modes up to Think Max, it achieves top-tier performance on coding benchmarks such as LiveCodeBench and Codeforces — rivaling leading closed-source models — and is released under the MIT License....
Total Context:
1049K
Max output:
393K
Input:
$
1.74
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
3.48
/ M Tokens

Z.ai
Text Generation
GLM-5.1
GLM-5.1 is Z.ai's next-generation flagship model built for agentic engineering. It is designed to run continuously for hours or even longer, refining its strategy as it works—the longer it runs, the better the results....
Total Context:
205K
Max output:
131K
Input:
$
1.4
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
4.4
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2
DeepSeek-V3.2は、優れた推論とエージェントのパフォーマンスを高い計算効率で調和させるModelです。そのアプローチは、次の3つの主要な技術的ブレークスルーに基づいています:DeepSeek Sparse Attention(DSA)、計算複雑性を実質的に削減しながらModel性能を維持し、特に長文脈シナリオに最適化された効率的なアテンションメカニズム;GPT-5に匹敵するパフォーマンスと、Gemini-3.0-Proの高精度バリアントと並ぶ推論能力を実現するスケーラブルな強化学習フレームワーク;そして、ツール使用シナリオに推論を統合し、複雑なインタラクティブ環境での準拠性と一般化を改善する大規模エージェントタスク合成パイプラインです。Modelは2025年の国際数学オリンピック(IMO)および国際情報オリンピック(IOI)で金メダルの実績を達成しました。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.42
/ M Tokens

