
Moonshot AI
Text Generation
Kimi-K2.5
リリース日:2026/01/30
Kimi K2.5は、Kimi-K2-Baseの上に約15兆の混合視覚およびText tokensで継続的に事前学習されたオープンソースのネイティブMultimodalなエージェントモデルです。1TパラメータMoEアーキテクチャ(32Bアクティブ)と256Kコンテキスト長を備え、Visionと言語の理解を高度なエージェント機能とシームレスに統合し、即時モードと思考モード、そして会話およびエージェントのパラダイムをサポートします。...
Total Context:
262K
Max output:
262K
Input:
$
0.55
/ M Tokens
Output:
$
3.0
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M2.1
リリース日:2025/12/23
MiniMax-M2.1は、エージェント機能に最適化されたオープンソースの大型言語Modelであり、コーディング、ツールの使用、指示の遵守、長期間の計画に優れています。多言語のソフトウェア開発と複雑な多段階のワークフローをサポートし、多言語シナリオではSWE-bench Verifiedで74.0を達成し、Claude Sonnet 4.5を凌駕しています。...
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

Z.ai
Text Generation
GLM-4.7
リリース日:2025/12/23
GLM-4.7はZhipuの新世代フラッグシップModelで、総パラメーターは355B、アクティベートパラメーターは32Bあり、会話、推論、エージェント機能において総合的なアップグレードを提供します。回答はより簡潔で自然になり、執筆はより没入感があり、ツールコール指示はより確実に遵守され、アーティファクトと代理コーディングのフロントエンド仕上げや、長期的タスク完了効率がさらに向上しました。...
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2
リリース日:2025/12/04
DeepSeek-V3.2は、優れた推論とエージェントのパフォーマンスを高い計算効率で調和させるModelです。そのアプローチは、次の3つの主要な技術的ブレークスルーに基づいています:DeepSeek Sparse Attention(DSA)、計算複雑性を実質的に削減しながらModel性能を維持し、特に長文脈シナリオに最適化された効率的なアテンションメカニズム;GPT-5に匹敵するパフォーマンスと、Gemini-3.0-Proの高精度バリアントと並ぶ推論能力を実現するスケーラブルな強化学習フレームワーク;そして、ツール使用シナリオに推論を統合し、複雑なインタラクティブ環境での準拠性と一般化を改善する大規模エージェントタスク合成パイプラインです。Modelは2025年の国際数学オリンピック(IMO)および国際情報オリンピック(IOI)で金メダルの実績を達成しました。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2-Exp
リリース日:2025/10/10
DeepSeek-V3.2-Expは、DeepSeekモデルの実験バージョンであり、V3.1-Terminusに基づいています。これは、長いコンテキストでのより高速で効率的なトレーニングとInferenceのためにDeepSeek Sparse Attention(DSA)をデビューさせます。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens

Z.ai
Text Generation
GLM-4.6V
リリース日:2025/12/08
GLM-4.6Vは、同じパラメータスケールのモデルにおいて、視覚理解の分野でSOTA(最先端)の精度を達成しました。初めて、視覚モデルのアーキテクチャにFunction Call機能をネイティブに統合し、「視覚的認識」と「実行可能な行動」の間のギャップを橋渡しします。これにより、現実のビジネスシナリオにおけるMultimodal Agentの統一技術基盤が提供されます。さらに、視覚コンテキストウィンドウが128kに拡張され、長いVideoストリーム処理と高解像度のマルチImage分析をサポートします。...
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1-Terminus
リリース日:2025/09/29
DeepSeek-V3.1-Terminusは、V3.1の強みを基にし、主要なユーザーフィードバックに対応した更新バージョンです。言語の一貫性を向上させ、中国語と英語が混在したTextや時折発生する異常な文字を減らしています。また、Code AgentとSearch Agentの性能も強化されています。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1
リリース日:2025/08/25
DeepSeek-V3.1はハイブリッドモデルで、思考モードと非思考モードの両方をサポートしています。ポストトレーニングの最適化により、モデルのツール使用とエージェントタスクにおけるパフォーマンスが大幅に向上しました。DeepSeek-V3.1-Thinkは、DeepSeek-R1-0528と同等の回答品質を達成し、より迅速に応答します。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3
リリース日:2024/12/26
DeepSeek-V3-0324は、推論性能の大幅な向上、強力なフロントエンド開発スキル、よりスマートなツール使用能力など、いくつかの重要な側面で前モデルのDeepSeek-V3を大きく上回る改善を示しています。...
Total Context:
164K
Max output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1
リリース日:2025/05/28
DeepSeek-R1-0528は、複雑な推論タスクの処理において大幅な改善を示すアップグレードされたModelであり、幻覚率の低減、関数呼び出しのサポート強化、およびバイブコーディングのより良い経験も提供します。これは、O3およびGemini 2.5 Proに匹敵するパフォーマンスを達成します。...
Total Context:
164K
Max output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M2
リリース日:2025/10/28
MiniMax-M2は、エージェントの効率性を再定義します。コンパクトで高速、コスト効果の高いMoE Model(総パラメータ2300億、アクティブパラメータ100億)で、コーディングとエージェンティックなタスクにおいてエリートなパフォーマンスを実現しながら、強力な一般知能を保持しています。アクティブパラメータはわずか100億で、MiniMax-M2は洗練されたエンドツーエンドのツール使用性能を提供し、現代のトップモデルから期待されるものを、これまで以上に簡単に展開とスケーリングできるスマートなフォームファクターで実現します。...
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

Qwen
Text Generation
Qwen3-VL-32B-Instruct
リリース日:2025/10/21
Qwen3-VLは、Qwen3シリーズのVision-Languageモデルであり、さまざまなVision-Language(VL)ベンチマークで最先端(SOTA)のパフォーマンスを達成しています。このModelは、メガピクセルレベルまでの高解像度Image入力をサポートし、一般的な視覚理解、多言語OCR、細かな視覚的グラウンディング、視覚的対話における強力な機能を備えています。Qwen3シリーズの一部として、強力な言語基盤を継承しており、複雑な指示を理解し実行することができます。...
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-VL-32B-Thinking
リリース日:2025/10/21
Qwen3-VL-Thinkingは、複雑な視覚的推論タスクのために特別に最適化されたQwen3-VLシリーズのバージョンです。これは"Thinking Mode"を取り入れており、最終的な答えを出す前に詳細な中間推論ステップ(Chain-of-Thought)を生成できます。この設計は、マルチステップの論理、計画、および詳細な分析を必要とする視覚質問応答(VQA)やその他のビジョン-言語タスクにおいて、モデルのパフォーマンスを大幅に向上させます。...
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-8B-Instruct
リリース日:2025/10/15
Qwen3-VL-8B-InstructはQwen3シリーズのVision-Imageモデルであり、一般的な視覚理解、視覚中心の対話、画像における多言語Text認識において強力な能力を示しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
Text Generation
Qwen3-VL-8B-Thinking
リリース日:2025/10/15
Qwen3-VL-8B-ThinkingはQwen3シリーズのVision-言語Modelであり、複雑な推論が必要なシナリオに最適化されています。このThinkingモードでは、Modelは最終的な答えを提供する前に順を追って考え、推論を行います。...
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2.0
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Instruct
リリース日:2025/10/04
Qwen3-VL-235B-A22B-Instructは235Bパラメータを持つ専門家の集合(MoE)Vision-language Modelで、22Bのアクティブパラメータがあります。これはQwen3-VL-235B-A22Bの指示調整されたバージョンで、Chatアプリケーションに合わせられています。...
Total Context:
262K
Max output:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Thinking
リリース日:2025/10/04
Qwen3-VL-235B-A22B-Thinking は Qwen3-VL シリーズのモデルの一つで、最先端の結果を達成する推論強化版の Thinking エディションです。これは、多くのマルチモーダル推論ベンチマークで優れた成果を挙げており、STEM、数学、因果分析、論理的かつ証拠に基づいた回答に秀でています。全パラメータが235Bで、アクティブパラメータが22Bの合計パラメータを持つ、ミックスチャーオブエキスパート (MoE) アーキテクチャを備えています。...
Total Context:
262K
Max output:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Instruct
リリース日:2025/10/05
Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Thinking
リリース日:2025/10/11
Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Thinking
リリース日:2025/11/07
Kimi K2 Thinkingは最新かつ最も能力のあるオープンソースの思考モデルです。Kimi K2から始まり、段階的にツールを動的に利用する思考エージェントとして構築されました。人類最後の試験(HLE)、BrowseComp、その他のベンチマークで新たな最先端技術を設定し、複数ステップの推論深度を劇的に拡大し、200〜300の連続コールで安定したツール使用を維持します。同時に、K2 ThinkingはINT4量子化のネイティブModelで、262kコンテキストウィンドウを持ち、Inferenceの待ち時間とGPUメモリ使用量の損失のない削減を達成しています...
Total Context:
262K
Max output:
262K
Input:
$
0.55
/ M Tokens
Output:
$
2.5
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct-0905
リリース日:2025/09/08
Kimi K2-Instruct-0905は、最先端のエキスパート集合(MoE)言語モデルであり、Kimi K2の最新で最も高度なバージョンです。主な特徴には、特にフロントエンドとツール呼び出しのためのコーディング機能の強化、コンテキスト長が256k tokensに拡張されたこと、さまざまなエージェントスカフォールドとの統合の改善が含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.4
/ M Tokens
Output:
$
2.0
/ M Tokens
OpenAI
Text Generation
gpt-oss-120b
リリース日:2025/08/13
gpt-ossシリーズは、強力な推論、エージェントタスク、および多目的な開発者ユースケース向けに設計されたOpenAIのオープンウェイトのモデルです。gpt-oss-120bは生産、汎用、高度な推論ユースケース向けで、単一の80GB GPU(例えばNVIDIA H100やAMD MI300X)に収まります。...
Total Context:
131K
Max output:
8K
Input:
$
0.05
/ M Tokens
Output:
$
0.45
/ M Tokens
OpenAI
Text Generation
gpt-oss-20b
リリース日:2025/08/13
gpt-ossシリーズは、OpenAIの強力な推論、エージェンティックなタスク、および多目的な開発者のユースケースのために設計されたオープンウェイトモデルです。gpt-oss-20bは低遅延、ローカルまたは専門的なユースケース用です。...
Total Context:
131K
Max output:
8K
Input:
$
0.04
/ M Tokens
Output:
$
0.18
/ M Tokens

Z.ai
Text Generation
GLM-4.6
リリース日:2025/10/04
GLM-4.5と比較して、GLM-4.6はいくつかの重要な改善をもたらします。200K tokensまで拡張された長いコンテキストウィンドウ、優れたコーディング性能、高度な推論、より能力の高いエージェント、そして洗練された執筆を含みます。...
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
Text Generation
GLM-4.5-Air
リリース日:2025/07/28
GLM-4.5シリーズのモデルは、インテリジェントエージェントのために設計されたファウンデーションモデルです。GLM-4.5-Airは、合計1060億のパラメーターと、120億のアクティブパラメーターを備えた、よりコンパクトな設計を採用しています。また、思考モードと非思考モードの両方を提供するハイブリッド推論モデルでもあります。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
Text Generation
GLM-4.5V
リリース日:2025/08/13
モデルのGLM-Vファミリーの一部として、GLM-4.5VはZhipuAIの基盤モデルGLM-4.5-Airに基づいており、画像、ビデオ、文書理解、GUIエージェント操作などのタスクでSOTA性能を達成しています。...
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

inclusionAI
Text Generation
Ling-flash-2.0
リリース日:2025/09/18
Ling-flash-2.0 は inclusionAI の言語 Model で、合計 1,000 億パラメーターを持ち、そのうち 61 億は token ごとにアクティブ化されます(48 億は非 Embedding)。Ling 2.0 アーキテクチャシリーズの一部として、軽量でありながら強力な専門集団(MoE) Model として設計されています。40B レベルの密集 Model や他の大規模な MoE Model に匹敵する、またはそれを超える性能を提供することを目指していますが、アクティブなパラメーター数は大幅に少なくなっています。この Model は、極端なアーキテクチャのデザインとトレーニング手法を通じて高性能と効率を達成することに焦点を当てた戦略を表しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
Text Generation
Ling-mini-2.0
リリース日:2025/09/10
Ling-mini-2.0は、小型でありながら高性能な大規模言語Modelで、MoEアーキテクチャに基づいて構築されています。総パラメータは16Bですが、tokenごとにアクティブ化されるのはわずか1.4B(非Embedding 789M)であり、非常に高速な生成が可能です。効率的なMoE設計と大規模高品質なトレーニングデータのおかげで、1.4Bのアクティブ化パラメータしか持たないにもかかわらず、Ling-mini-2.0はサブ10Bの密集LLMやさらに大きなMoE Modelに匹敵するトップクラスの下流タスクパフォーマンスを提供します。...
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
Text Generation
Ring-flash-2.0
リリース日:2025/09/29
Ring-flash-2.0は、Ling-flash-2.0-baseに基づいて深く最適化された高性能思考モデルです。これは、合計100Bのパラメータを持つ専門家混合(MoE)Modelですが、Inferenceごとに起動するのはわずか6.1Bです。このModelは、強化学習(RL)におけるMoE LLMsのトレーニング不安定性の課題に対処するために独自に開発された「icepop」アルゴリズムを活用しており、拡張されたRLトレーニングサイクル全体でその複雑な推論能力を継続的に向上させます。Ring-flash-2.0は、数学コンペティション、コード生成、論理的推論を含む挑戦的なベンチマークで大幅な突破を示しています。その性能は、40Bパラメータ未満のSOTA密集モデルを凌ぎ、より大きなオープンウェイトのMoE Modelやクローズドソースの高性能思考Model APIに匹敵します。より驚くべきことに、Ring-flash-2.0は主に複雑な推論のために設計されていますが、創造的なライティングにも強い能力を示します。その効率的なアーキテクチャのおかげで、高速Inferenceを達成し、高並列シナリオでの思考ModelのInferenceコストを大幅に削減します。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Tencent
Text Generation
Hunyuan-MT-7B
リリース日:2025/09/18
Hunyuan翻訳モデルは、翻訳モデルHunyuan-MT-7Bと統合モデルHunyuan-MT-Chimeraで構成されています。Hunyuan-MT-7Bは、7億パラメータを持つ軽量な翻訳モデルであり、ソースTextをターゲット言語に翻訳するために使用されます。モデルは、中国の5つの少数民族言語を含む33言語間の相互翻訳をサポートしています。WMT25機械翻訳コンペティションでは、Hunyuan-MT-7Bが参加した31の言語カテゴリーのうち30で1位を獲得し、その優れた翻訳能力を示しました。翻訳タスクにおいて、Tencent Hunyuanは、事前トレーニング、教師ありFine-tuning、翻訳強化、統合改善をカバーする包括的なトレーニングフレームワークを提案し、同規模の他のModelの中で最先端のパフォーマンスを達成しました。このModelは計算効率が高く、さまざまなアプリケーションシナリオに適しています。...
Total Context:
33K
Max output:
33K
Input:
$
0.0
/ M Tokens
Output:
$
0.0
/ M Tokens

Qwen
Text Generation
Qwen3-Next-80B-A3B-Instruct
リリース日:2025/09/18
Qwen3-Next-80B-A3B-Instructは、AlibabaのQwenチームによってリリースされた次世代のファウンデーションModelです。新しいQwen3-Nextアーキテクチャに基づいて構築されており、究極のトレーニングとInferenceの効率性を追求しています。このModelには、ハイブリッド・アテンション・メカニズム(ゲーティッド・デルタネットとゲーティッド・アテンション)、高スパース性のMixture-of-Experts(MoE)構造、およびさまざまな安定性の最適化などの革新的な機能が組み込まれています。80億パラメータのスパースModelとして、Inference中に1tokenあたり約30億のパラメータのみがアクティブ化され、計算コストを大幅に削減し、32K tokensを超える長いコンテキストタスクのためにQwen3-32B Modelと比べて10倍以上のスループットを提供します。これは汎用タスク向けに最適化された指示調整版であり、「思考モード」はサポートしていません。パフォーマンス面では、いくつかのベンチマークでQwenのフラッグシップModelであるQwen3-235Bに匹敵し、超長コンテキストシナリオで顕著な利点を示しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.14
/ M Tokens
Output:
$
1.4
/ M Tokens

Qwen
Text Generation
Qwen3-Next-80B-A3B-Thinking
リリース日:2025/09/25
Qwen3-Next-80B-A3B-Thinkingは、AlibabaのQwenチームによって開発された、次世代の基礎モデルです。このモデルは、複雑な推論タスク向けに特別に設計されています。Qwen3-Nextアーキテクチャに基づいて構築されており、ハイブリッド・アテンション・メカニズム(Gated DeltaNetとGated Attention)と高スパース性のMixture-of-Experts(MoE)構造を組み合わせて、究極のトレーニングとInference効率を実現します。80億パラメータのスパースなModelとして、Inference中に約30億のパラメータのみを活性化することで、計算コストを大幅に削減し、32K tokenを超える長いコンテキストタスクにおいて、Qwen3-32B Modelよりも10倍以上のスループットを提供します。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、エージェンティックプランニングのような要求の厳しいマルチステップの問題に最適化されており、デフォルトで構造化された「考え中」のトレースをOutputします。性能面では、より高価なモデルであるQwen3-32B-Thinkingを上回り、複数のベンチマークでGemini-2.5-Flash-Thinkingの実績を上回っています。...
Total Context:
262K
Max output:
262K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-Omni-30B-A3B-Captioner
リリース日:2025/10/04
Qwen3-Omni-30B-A3B-Captionerは、AlibabaのQwenチームからのVision-Language Model (VLM)で、Qwen3シリーズの一部です。これは、高品質で詳細かつ正確なImageキャプションを生成するために特別に設計されています。30Bの総パラメータエキスパートの組み合わせ(MoE)アーキテクチャに基づいており、ModelはImageの内容を深く理解し、それを豊かで自然な言語Textに翻訳することができます。...
Total Context:
66K
Max output:
66K
Input:
$
0.1
/ M Tokens
Output:
$
0.4
/ M Tokens

Qwen
Text Generation
Qwen3-Omni-30B-A3B-Instruct
リリース日:2025/10/04
Qwen3-Omni-30B-A3B-Instructは、AlibabaのQwenチームの最新のQwen3シリーズのメンバーです。それは30億の総パラメータと3億のアクティブパラメータを持つ専門家のミックス (MoE) Modelであり、強力なパフォーマンスを維持しつつInferenceコストを効果的に削減します。このModelは、高品質で多元的かつ多言語のデータでトレーニングされており、多言語対話のような基本的な能力だけでなく、コードや数学においても優れた性能を発揮しています。...
Total Context:
66K
Max output:
66K
Input:
$
0.1
/ M Tokens
Output:
$
0.4
/ M Tokens

Qwen
Text Generation
Qwen3-Omni-30B-A3B-Thinking
リリース日:2025/10/04
Qwen3-Omni-30B-A3B-Thinkingは、Qwen3-Omni omni-modal Modelの「Thinker-Talker」アーキテクチャ内のコア「Thinker」コンポーネントです。それは、Text、Audio、Images、そしてVideoを含むMultimodal Inputを処理して、複雑な思考の連鎖を実行するように具体的に設計されています。このModelはシステムの推論脳として、すべてのInputを理解と分析のための共通の表象空間に統一しますが、そのOutputはTextのみです。この設計により、画像で提示された数学的問題のような深い思考とクロスモーダルな理解を必要とする複雑な問題を解決する際に優れた能力を発揮し、Qwen3-Omniアーキテクチャ全体の強力な認知能力の鍵となっています。...
Total Context:
66K
Max output:
66K
Input:
$
0.1
/ M Tokens
Output:
$
0.4
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-480B-A35B-Instruct
リリース日:2025/07/31
Qwen3-Coder-480B-A35B-Instructは、Alibabaによってこれまでにリリースされた中で最もエージェンティックなコードModelです。それは4800億の総パラメータと350億の活性化パラメータを持つエキスパートのミクスチャー (MoE) Modelであり、効率とパフォーマンスのバランスを取っています。このModelは256K(約262,144)tokenのコンテキスト長をネイティブにサポートし、YaRNのような外挿法を用いることで100万tokenまで拡張可能で、リポジトリ規模のコードベースや複雑なプログラミングタスクを処理することができます。Qwen3-Coderは、エージェンティックコーディングワークフローのために特別に設計されており、コードを生成するだけでなく、開発者ツールや環境と自律的に対話して複雑な問題を解決します。最先端のオープンModelの中でコーディングとエージェンティックなベンチマークで最先端の結果を達成しており、Claude Sonnet 4のような先進的なModelに匹敵するパフォーマンスを持っています。このModelと共に、Alibabaはその強力なエージェンティックコーディング能力を完全に発揮するために設計されたコマンドラインツールであるQwen Codeもオープンソース化しました。...
Total Context:
262K
Max output:
262K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-30B-A3B-Instruct
リリース日:2025/08/01
Qwen3-Coder-30B-A3B-Instructは、AlibabaのQwenチームによって開発されたQwen3シリーズのコードModelです。洗練され最適化されたModelとして、強化されたコーディング機能に焦点を当てつつ、印象的なパフォーマンスと効率を維持しています。Agentic Coding、Agentic Browser-Use、その他の基礎的なコーディングタスクのような複雑なタスクにおいて、オープンソースのModel間で顕著なパフォーマンスの優位性を示しています。このModelは、256K tokenという長いコンテキストをネイティブにサポートしており、1M tokenまで拡張可能で、リポジトリ規模の理解と処理をより良くします。さらに、Qwen CodeやCLINEのようなプラットフォームのための強力なエージェンティックコーディングのサポートを提供し、特別に設計された関数呼び出しフォーマットを備えています。...
Total Context:
262K
Max output:
262K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Instruct-2507
リリース日:2025/07/30
Qwen3-30B-A3B-Instruct-2507はQwen3-30B-A3B無考モードの更新版です。それは30.5億の総パラメータと3.3億の活性化パラメータを持つエキスパートの組合せ(MoE)モデルです。このバージョンは、指示の遵守、論理的推論、Text理解、数学、科学、コーディング、ツールの使用などの一般的な能力の顕著な改善を含む重要な強化を特徴としています。また、多言語にわたる長い知識のカバー率における大幅な向上を示し、主観的でオープンエンドなタスクにおいてユーザーの好みとの整合性が著しく向上し、より役立つ応答と高品質なText生成を可能にします。さらに、256Kまでの長いコンテキスト理解能力が強化されました。このModelは無考モードのみをサポートし、Outputに`<think></think>`ブロックを生成しません。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Thinking-2507
リリース日:2025/07/31
Qwen3-30B-A3B-Thinking-2507は、アリババのQwenチームによってリリースされたQwen3シリーズの最新のシンキングModelです。30.5億の総パラメータと3.3億のアクティブパラメータを持つ専門家の集合(MoE)Modelであり、複雑なタスクへの能力向上に注力しています。Modelは、論理的推論、数学、科学、コーディング、通常は人間の専門知識を必要とする学術ベンチマークなどの推論タスクで顕著に改善されたパフォーマンスを示しています。また、指示のフォロー、ツールの使用、Text生成、人間の好みに一致する能力など、一般的な能力も大幅に向上しています。Modelは256Kの長文脈理解能力をネイティブにサポートしており、最大100万tokenまで拡張可能です。このバージョンは、段階的な推論を通じて非常に複雑な問題に取り組むために「シンキングモード」に特化して設計されており、代理行動能力にも優れています。...
Total Context:
262K
Max output:
131K
Input:
$
0.09
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Instruct-2507
リリース日:2025/07/23
Qwen3-235B-A22B-Instruct-2507は、Alibaba CloudのQwenチームによって開発されたQwen3シリーズのフラッグシップMixture-of-Experts(MoE)大規模言語モデルです。このモデルは、合計2350億のパラメータを持ち、各フォワードパスで22億が活性化されます。Qwen3-235B-A22B非思考モードの更新版としてリリースされ、指示のフォロー、論理的な推論、テキスト理解、数学、科学、コーディング、およびツールの使用などの一般的な機能において重要な強化を備えています。さらに、このモデルは複数の言語にわたる長尾の知識カバレッジにおいて大幅な向上を示し、主観的でオープンエンドのタスクにおいてユーザーの好みにより良く合致するようになり、より役立つ応答と高品質なテキスト生成を可能にします。特に、256K (262,144 tokens) の広範なコンテキストウィンドウをネイティブにサポートし、長文コンテキストの理解能力を向上させます。このバージョンは非思考モードに専念し、<think>ブロックを生成せず、直接的なQ&Aや知識検索のようなタスクにおいてより効率的で正確な応答を提供することを目指しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Thinking-2507
リリース日:2025/07/28
Qwen3-235B-A22B-Thinking-2507は、アリババのQwenチームによって開発されたQwen3の大規模言語モデルシリーズのメンバーで、非常に複雑な推論タスクを専門としています。このModelは、Mixture-of-Experts (MoE)アーキテクチャに基づいており、合計2350億のパラメータと、tokenあたり約220億のアクティブパラメータを持ち、計算効率を高めながら強力なパフォーマンスを維持しています。専用の「thinking」Modelとして、人間の専門知識を必要とする課題(論理的推論、数学、科学、コーディング、学術ベンチマークなど)において、オープンソースのthinkingモデルの中で最先端の結果を達成しています。さらに、このModelは、指示の追従、ツールの使用、Text生成といった一般的な能力が強化されており、256Kのロングコンテキスト理解能力をネイティブにサポートし、深い推論や長文の処理を必要とするシナリオに理想的です。...
Total Context:
262K
Max output:
262K
Input:
$
0.13
/ M Tokens
Output:
$
0.6
/ M Tokens

StepFun
Text Generation
step3
リリース日:2025/08/06
ステップ3は、StepFunの最先端のマルチモーダル推論Modelです。これは、321Bの総パラメータと38Bのアクティブパラメータを持つMixture-of-Experts (MoE) アーキテクチャ上に構築されています。このModelは、Vision-Language推論においてトップクラスのパフォーマンスを提供しながらデコードコストを最小限に抑えるために、エンドツーエンドで設計されています。Multi-Matrix Factorization Attention (MFA) と Attention-FFN Disaggregation (AFD) の共同設計により、ステップ3はフラグシップおよび低エンドのアクセラレータの両方において卓越した効率を維持しています。プレトレーニング中に、ステップ3は20TのText tokenと4TのImage-Text混合tokenを処理し、10以上の言語にまたがりました。このModelは、オープンソースModelとして、数学、コード、マルチモダリティを含む様々なベンチマークにおいて最先端のパフォーマンスを達成しました。...
Total Context:
66K
Max output:
66K
Input:
$
0.57
/ M Tokens
Output:
$
1.42
/ M Tokens
ByteDance
Text Generation
Seed-OSS-36B-Instruct
リリース日:2025/09/04
Seed-OSSは、ByteDance Seedチームによって開発されたオープンソースの大規模言語Modelのシリーズであり、強力な長文コンテキスト処理、推論、エージェント機能、および汎用能力のために設計されています。このシリーズ内では、Seed-OSS-36B-Instructは、36億のパラメータを持つ命令調整済みModelであり、ネイティブに超長文コンテキスト長をサポートし、巨大な文書や複雑なコードベースを単一のパスで処理することができます。このModelは、推論、コード生成、およびエージェントタスク(ツールの使用など)のために特別に最適化されつつ、バランスの取れた優れた汎用能力を維持しています。このModelの重要な特徴は、「Thinking Budget」機能であり、ユーザーが必要に応じて推論の長さを柔軟に調整できるようにし、実際のアプリケーションでのInference効率を効果的に向上させます。...
Total Context:
262K
Max output:
262K
Input:
$
0.21
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
Text Generation
GLM-4.1V-9B-Thinking
リリース日:2025/07/04
GLM-4.1V-9B-Thinkingは、Zhipu AIと清華大学のKEG研究所が共同で発表したオープンソースのVision-Language Model(VLM)であり、一般目的のマルチモーダルな推論を進化させるよう設計されています。GLM-4-9B-0414の基礎モデルを基に構築されたこのモデルは、「思考のパラダイム」を導入し、カリキュラムサンプリングを用いた強化学習(RLCS)を活用して、複雑なタスクにおける能力を大幅に向上させています。9Bパラメータモデルとして、同等のサイズのモデルの中で最先端のパフォーマンスを達成し、18の異なるベンチマークで、はるかに大きな72BパラメータのQwen-2.5-VL-72Bと比較して同等かそれ以上の性能を発揮します。このモデルは、STEMの問題解決、Videoの理解、長文の理解を含む多様なタスクに優れ、最大4Kの解像度と任意のアスペクト比のImageを処理できます。...
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

BAIDU
Text Generation
ERNIE-4.5-300B-A47B
リリース日:2025/07/02
ERNIE-4.5-300B-A47Bは、Baiduによって開発された大規模言語Modelであり、Mixture-of-Experts (MoE)アーキテクチャに基づいています。このModelは合計3000億のパラメータを持っていますが、tokenごとのInferenceでは470億のパラメータのみを活性化し、強力なパフォーマンスと計算効率を両立させています。ERNIE 4.5シリーズのコアModelの一つとして、PaddlePaddle深層学習フレームワーク上でトレーニングされ、Text理解、生成、推論、コーディングなどのタスクで優れた能力を示しています。このModelは革新的なMultimodal異種MoE事前トレーニング手法を利用しており、Textと視覚モダリティの共同トレーニングを通じてその全体的な能力を効果的に向上させ、指示に従うことや世界の知識記憶において顕著な結果を示しています。BaiduはAI技術の研究と応用を促進するために、このModelを含むシリーズの他のモデルをオープンソース化しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.28
/ M Tokens
Output:
$
1.1
/ M Tokens

Tencent
Text Generation
Hunyuan-A13B-Instruct
リリース日:2025/06/30
Hunyuan-A13B-Instructは、その80 Bのパラメーターのうち13 Bのみをアクティブにしますが、主流のベンチマークでより大きなLLMに匹敵します。ハイブリッド推論を提供し、低遅延の「高速」モードまたは高Precisionの「低速」モードを各呼び出しごとに切り替えることができます。ネイティブの256 K-tokenコンテキストにより、劣化せずに本のような長さのドキュメントを処理できます。エージェントスキルはBFCL-v3、τ-Bench、C3-Benchのリーダーシップに合わせて調整されており、優れた自律型アシスタントのバックボーンとなっています。グループ化されたQuery Attentionと多形式の量子化により、メモリ効率の良い、GPUに優しいInferenceを実現し、実際の展開での使用に備えています。企業向けアプリケーションのためのマルチリンガルサポートと強固な安全性調整を備えています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct
リリース日:2025/07/13
Kimi K2は、Mixture-of-Experts (MoE)ファウンデーションModelで、コードおよびエージェント機能に優れ、総計1兆のパラメーターと320億のアクティブなパラメーターを特徴としています。一般的な知識推論、プログラミング、数学、およびエージェント関連のタスクをカバーするベンチマーク評価において、K2モデルは他の主要なオープンソースモデルを凌駕します。...
Total Context:
131K
Max output:
131K
Input:
$
0.58
/ M Tokens
Output:
$
2.29
/ M Tokens

Moonshot AI
Text Generation
Kimi-Dev-72B
リリース日:2025/06/19
Kimi-Dev-72Bは、オープンソースのコーディング用大規模言語Modelで、SWE-bench Verifiedで60.4%を達成し、オープンソースModelの中で最先端の結果を設定しています。大規模な強化学習を通じて最適化され、Docker内の実際のコードベースを自律的に修正し、完全なテストスイートが合格したときのみ報酬を得ます。これにより、Modelが実際のソフトウェア工学の基準に沿った正確で堅牢かつ実用的なソリューションを提供することが保証されます。...
Total Context:
131K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.15
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M1-80k
リリース日:2025/06/17
MiniMax-M1は、456 Bパラメータとトークンあたり45.9 Bがアクティブなオープンウェイトの大規模ハイブリッドアテンション推論モデルです。これはネイティブに1 M-tokenコンテキストをサポートし、ライトニングアテンションによりDeepSeek R1で100 K tokenの際に75%のFLOPsを節約し、MoEアーキテクチャを活用しています。CISPOとハイブリッド設計による効率的なRLトレーニングにより、長いInput推論および現実世界のソフトウェアエンジニアリングタスクで最先端のパフォーマンスを実現します。...
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B
リリース日:2025/04/30
Qwen3-30B-A3BはQwenシリーズの最新の大規模言語Modelであり、30.5Bの総パラメータと3.3Bの活性化パラメータを持つMixture-of-Experts (MoE)アーキテクチャを特徴としています。このModelは、思考モード(複雑な論理的推論、数学、コーディング用)と非思考モード(効率的で汎用的な対話用)のシームレスな切り替えを独自にサポートします。創造的な文章、ロールプレイング、および複数ターンの対話において、人間の好みの整合性を著しく向上させた推論能力を示します。このModelは、外部ツールとの正確な統合におけるエージェント能力で優れ、多言語指示に強く、100以上の言語と方言をサポートした翻訳能力を持っています。...
Total Context:
131K
Max output:
131K
Input:
$
0.09
/ M Tokens
Output:
$
0.45
/ M Tokens

Qwen
Text Generation
Qwen3-32B
リリース日:2025/04/30
Qwen3-32Bは、Qwenシリーズの最新の大規模言語モデルで、32.8Bのパラメーターを備えています。このモデルは、シームレスな切り替えを特長とし、複雑な論理的推論、数学、コーディングに対応する考えるモードと、効率的で汎用的な対話を行う非考えるモードを切り替えます。これは、数理、コード生成、常識的な論理推論において、以前のQwQやQwen2.5指示モデルを超える大幅に強化された推論能力を示しています。そのため、創造的な文章作成、ロールプレイング、マルチターンの対話において人間の好みとの整合性に優れています。さらに、強力な多言語の指示追従と翻訳能力を備え、100以上の言語と方言に対応しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-14B
リリース日:2025/04/30
Qwen3-14Bは、Qwenシリーズの最新の大型言語Modelで、14.8Bのパラメーターを持っています。このModelは、複雑な論理的推論、数学、コーディングの場合は思考モード、効率的で汎用的な対話のためには非思考モードの間でシームレスに切り替えることを独自にサポートします。それは数学、コード生成、常識的な論理推論において以前のQwQおよびQwen2.5指示Modelsを超える、著しく強化された推論能力を示しています。このModelは、創造的な執筆、ロールプレイ、マルチターン対話のための人間の好みの調整においても優れています。さらに、100以上の言語と方言を強力な多言語指示と翻訳能力でサポートします。...
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-8B
リリース日:2025/04/30
Qwen3-8BはQwenシリーズの最新の大規模言語モデルで、8.2Bのパラメータを持っています。このModelは、複雑な論理的推論、数学、コーディングに適した思考モードと、効率的な汎用対話に適した非思考モードの間でシームレスに切り替えることができるユニークな機能を持っています。それは、前のQwQやQwen2.5の指示モデルを超えた数学、コード生成、および常識的論理推論において、顕著に強化された推論能力を示しています。このModelは、創作、役割演技、マルチターン対話における人間の好みの調整に優れています。さらに、強力な多言語指示追従および翻訳能力を持ち、100以上の言語と方言をサポートしています...
Total Context:
131K
Max output:
131K
Input:
$
0.06
/ M Tokens
Output:
$
0.06
/ M Tokens

Z.ai
Text Generation
GLM-Z1-32B-0414
リリース日:2025/04/18
GLM-Z1-32B-0414は、深い思考能力を持つ推論Modelです。このModelは、コールドスタートと拡張された強化学習を通じてGLM-4-32B-0414をベースに開発され、数学、コード、論理を含むタスクに対するさらなるトレーニングが行われました。ベースModelと比較して、GLM-Z1-32B-0414は数学的能力と複雑なタスクを解決する能力を大幅に向上させています。トレーニングプロセス中に、チームはペアワイズランキングフィードバックに基づいた一般的な強化学習も導入し、Modelの一般的な能力をさらに強化しました。32Bのパラメータしか持っていないにもかかわらず、一部のタスクでは671Bパラメータを持つDeepSeek-R1に匹敵する性能を示します。AIME 24/25、LiveCodeBench、GPQAのベンチマークでの評価を通じて、このModelは強力な数学的推論能力を示し、より広範な複雑なタスクに対するソリューションをサポートできます。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
Text Generation
GLM-4-32B-0414
リリース日:2025/04/18
GLM-4-32B-0414はGLMファミリーの新世代のModelであり、320億のパラメータを持っています。その性能は、OpenAIのGPTシリーズやDeepSeekのV3/R1シリーズに匹敵し、非常にユーザーフレンドリーなローカルデプロイメント機能をサポートしています。GLM-4-32B-Base-0414は、高品質なデータの15Tを含む、大量の推論型合成データを事前に学習し、以降の強化学習拡張の基礎を築いています。ポストトレーニング段階では、ダイアログシナリオ向けの人間の好みに合わせた調整に加え、拒否サンプリングや強化学習などの技術を用いて、命令のフォロー、エンジニアリングコード、関数呼び出しにおけるModelの性能を強化し、エージェントタスクに必要な原子能力を強化しました。GLM-4-32B-0414は、エンジニアリングコード、アーティファクト生成、関数呼び出し、検索ベースのQ&A、レポート生成などの分野で良好な結果を達成しています。いくつかのベンチマークでは、その性能はGPT-4oやDeepSeek-V3-0324(671B)といったより大きなModelのそれに匹敵するか、それを超えることもあります。...
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
Text Generation
GLM-Z1-9B-0414
リリース日:2025/04/18
GLM-Z1-9B-0414は、GLMシリーズの小型のModelで、わずか90億のパラメータでオープンソースの伝統を維持しながらも驚くべき能力を持っています。規模が小さいにもかかわらず、GLM-Z1-9B-0414は数学的推論および一般的なタスクにおいて優れたパフォーマンスを示します。その全体的なパフォーマンスは、同サイズのオープンソースModelの中で既にトップレベルです。研究チームは、より大きなModelと同じシリーズの技術を用いてこの9B Modelをトレーニングしました。特にリソースが制限されたシナリオでは、このModelは効率と効果の間で優れたバランスを達成し、軽量な展開を求めるユーザーに強力なオプションを提供します。このModelは深い思考能力を備えており、YaRNテクノロジーを通じて長いコンテキストを処理できるため、計算資源が限られた状態で数学的推論能力を必要とするアプリケーションに特に適しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens

Z.ai
Text Generation
GLM-4-9B-0414
リリース日:2025/04/18
GLM-4-9B-0414は、9億のパラメータを持つGLMシリーズの小型モデルです。このModelは、GLM-4-32Bシリーズの技術的特徴を受け継いでおり、より軽量な展開オプションを提供しています。規模が小さいにもかかわらず、GLM-4-9B-0414はコード生成、ウェブデザイン、SVGグラフィックス生成、検索ベースの執筆タスクにおいて優れた能力を示しています。このModelは外部ツールを呼び出してその能力を拡張する機能呼び出し機能もサポートしています。このModelはリソース制約のあるシナリオで効率と効果のバランスが良く、限られた計算資源下でAIモデルを展開する必要があるユーザーにとって強力な選択肢を提供します。同じシリーズの他のModelのように、GLM-4-9B-0414も様々なベンチマークテストで競争力のあるパフォーマンスを示しています。...
Total Context:
33K
Max output:
33K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-32B-Instruct
リリース日:2025/03/24
Qwen2.5-VL-32B-Instructは、QwenチームによってリリースされたMultimodal大型言語Modelで、Qwen2.5-VLシリーズの一部です。このModelは一般的なオブジェクトを認識するだけでなく、Images内のText、チャート、アイコン、グラフィック、レイアウトを分析する能力に優れています。視覚エージェントとして、論理的に推論し、コンピュータや携帯電話を使用するためのツールを動的に指示することができます。さらに、このModelはImages内のオブジェクトを正確にローカライズし、請求書やテーブルなどのデータに対して構造化されたOutputsを生成することが可能です。前任のQwen2-VLと比較して、このバージョンは強化学習による数学的および問題解決能力が向上しており、応答のスタイルが人間の嗜好により良く合うように調整されています。...
Total Context:
131K
Max output:
131K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Qwen
Text Generation
QwQ-32B
リリース日:2025/03/06
QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。...
Total Context:
131K
Max output:
131K
Input:
$
0.15
/ M Tokens
Output:
$
0.58
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-72B-Instruct
リリース日:2025/01/28
Qwen2.5-VLはQwen2.5シリーズのビジョン-言語モデルであり、いくつかの側面で大きな向上を示しています。それは共通のオブジェクトを認識しながらテキスト、チャート、およびレイアウトを分析する強力な視覚理解能力を備えており、推論し、動的にツールを指示できる視覚エージェントとして機能します。また、1時間以上のビデオを理解し、重要なイベントをキャプチャすることができます。さらに、画像の中のオブジェクトを正確に特定し、バウンディングボックスやポイントを生成して局在化します。請求書やフォームのようなスキャンデータのための構造化された出力をサポートしており、Image、Video、およびエージェントタスクを含むさまざまなベンチマークで優れたパフォーマンスを示します。...
Total Context:
131K
Max output:
4K
Input:
$
0.59
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-7B-Instruct
リリース日:2025/01/28
Qwen2.5-VLはQwenシリーズの新しいメンバーであり、強力な視覚理解能力を備えています。画像内のText、チャート、レイアウトを分析し、長いVideoを理解してイベントをキャプチャすることができます。推論、ツールの操作、マルチフォーマットオブジェクトの位置特定、構造化されたOutputの生成が可能です。ModelはVideo理解における動的解像度とフレームレートトレーニングに向けて最適化されており、視覚エンコーダーの効率が向上しました。...
Total Context:
33K
Max output:
4K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-32B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-32BはQwen2.5-32Bに基づいて蒸留されたModelです。ModelはDeepSeek-R1によって生成された80万の選別されたサンプルを使用してファインチューニングされ、数学、プログラミング、推論タスクにおいて卓越したパフォーマンスを示します。AIME 2024、MATH-500、GPQA Diamondを含む様々なベンチマークで印象的な結果を達成し、MATH-500では94.3%の正確性を達成し、その強力な数学的推論能力を示しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-14B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースにした蒸留されたModelです。このModelは、DeepSeek-R1によって生成された800kの精選されたサンプルを使用してファインチューニングされ、優れた推論能力を示しています。MATH-500で93.9%の精度、AIME 2024で69.7%の合格率、CodeForcesでは1481の評価を達成し、数学およびプログラミングタスクにおけるその卓越した能力を示しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-7B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-7Bは、Qwen2.5-Math-7Bに基づいた蒸留モデルです。このモデルは、DeepSeek-R1によって生成された80万の精選されたサンプルを使用してファインチューニングされ、強力な推論能力を示しています。MATH-500では92.8%の正確性、AIME 2024では55.5%の合格率、CodeForcesでは1189の評価を達成し、7Bスケールモデルとして卓越した数学的およびプログラミングの能力を示しています。...
Total Context:
33K
Max output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens

Qwen
Text Generation
Qwen2.5-Coder-32B-Instruct
リリース日:2024/11/11
Qwen2.5-Coder-32B-Instructは、Qwen2.5をベースに開発されたコード特化の大規模言語モデルです。このModelは、5.5兆のtokenを使ってトレーニングを受けており、コード生成、コード推論、そしてコード修正において大きな改善を遂げています。現在、オープンソースのコード言語モデルとして最先端であり、そのコーディング能力はGPT-4に匹敵します。このModelは、コーディング能力を向上させただけでなく、数学や一般的な能力においても強みを持ち、長Text処理もサポートしています。...
Total Context:
33K
Max output:
4K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct-128K
リリース日:2024/09/18
Qwen2.5-72B-InstructはAlibaba Cloudによってリリースされた最新の大規模言語Modelシリーズの1つです。この72BModelは、コーディングや数学などの分野で大幅な改善を示しています。最大128Kのtokensのコンテキスト長をサポートします。このModelは、多言語サポートも提供しており、中国語、英語を含む29以上の言語をカバーしています。特にJSON形式における指示の追従、構造化データの理解、構造化されたOutputsの生成において顕著な改善を示しています。...
Total Context:
131K
Max output:
4K
Input:
$
0.59
/ M Tokens
Output:
$
0.59
/ M Tokens
DeepSeek
Text Generation
deepseek-vl2
リリース日:2024/12/13
DeepSeek-VL2は、DeepSeekMoE-27Bに基づいて開発された混合専門家(MoE)ビジョン-言語モデルであり、疎活性化MoEアーキテクチャを採用して4.5Bの活性パラメータのみで優れたパフォーマンスを達成します。 このModelは、視覚的質問応答、光学文字認識、文書/テーブル/チャート理解、視覚的グラウンディングなど、さまざまなタスクで優れています。 既存のオープンソースの密結合モデルおよびMoEベースのモデルと比較して、同等または最先端のパフォーマンスを同じまたは少ない活性パラメータで示します。...
Total Context:
4K
Max output:
4K
Input:
$
0.15
/ M Tokens
Output:
$
0.15
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct
リリース日:2024/09/18
Qwen2.5-72B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この72B Modelは、コーディングや数学などの分野で大幅な改善を示しています。この Modelは中国語や英語を含む29以上の言語をサポートし、多言語対応を提供します。指示の理解、構造化データの理解、特にJSON形式の構造化 Outputの生成において顕著な向上を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.59
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-32B-Instruct
リリース日:2024/09/19
Qwen2.5-32B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この32B Modelは、コーディングや数学などの分野で大幅な改善を示しています。Modelはまた、多言語サポートを提供し、中国語、英語を含む29以上の言語をカバーしています。指示の理解、構造化データの理解、特にJSON形式での構造化Outputの生成において、顕著な改善が見られます。...
Total Context:
33K
Max output:
4K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens

Qwen
Text Generation
Qwen2.5-14B-Instruct
リリース日:2024/09/18
Qwen2.5-14B-Instructは、Alibaba Cloudによってリリースされた最新の大規模言語モデルシリーズの一つです。この14B Modelは、コーディングや数学などの分野で大幅な改善を示しています。このModelは、中国語や英語を含む29以上の言語をカバーするマルチ言語サポートも提供しています。JSON形式で特に、指示のフォロー、構造化データの理解、および構造化されたOutputの生成において顕著な進歩を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens

Qwen
Text Generation
Qwen2.5-7B-Instruct
リリース日:2024/09/18
Qwen2.5-7B-Instructは、Alibaba Cloudからリリースされた最新の大規模言語モデルシリーズの一つです。この7B Modelは、コーディングや数学などの分野で重要な改善を示しています。また、このModelは中国語、英語を含む29以上の言語をカバーする多言語サポートを提供します。このModelは、命令の遵守、構造化データの理解、特にJSONのような構造化されたOutputの生成において顕著な強化を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens

Meta Llama
Text Generation
Meta-Llama-3.1-8B-Instruct
リリース日:2025/04/23
メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。...
Total Context:
33K
Max output:
4K
Input:
$
0.06
/ M Tokens
Output:
$
0.06
/ M Tokens

