
Moonshot AI
Text Generation
Kimi-K2.5
リリース日:2026/01/30
Kimi K2.5は、Kimi-K2-Baseの上に約15兆の混合視覚およびText tokensで継続的に事前学習されたオープンソースのネイティブMultimodalなエージェントモデルです。1TパラメータMoEアーキテクチャ(32Bアクティブ)と256Kコンテキスト長を備え、Visionと言語の理解を高度なエージェント機能とシームレスに統合し、即時モードと思考モード、そして会話およびエージェントのパラダイムをサポートします。...
Total Context:
262K
Max output:
262K
Input:
$
0.55
/ M Tokens
Output:
$
3.0
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M2.1
リリース日:2025/12/23
MiniMax-M2.1は、エージェント機能に最適化されたオープンソースの大型言語Modelであり、コーディング、ツールの使用、指示の遵守、長期間の計画に優れています。多言語のソフトウェア開発と複雑な多段階のワークフローをサポートし、多言語シナリオではSWE-bench Verifiedで74.0を達成し、Claude Sonnet 4.5を凌駕しています。...
Total Context:
197K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.2
/ M Tokens

Z.ai
Text Generation
GLM-4.7
リリース日:2025/12/23
GLM-4.7はZhipuの新世代フラッグシップModelで、総パラメーターは355B、アクティベートパラメーターは32Bあり、会話、推論、エージェント機能において総合的なアップグレードを提供します。回答はより簡潔で自然になり、執筆はより没入感があり、ツールコール指示はより確実に遵守され、アーティファクトと代理コーディングのフロントエンド仕上げや、長期的タスク完了効率がさらに向上しました。...
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2
リリース日:2025/12/04
DeepSeek-V3.2は、優れた推論とエージェントのパフォーマンスを高い計算効率で調和させるModelです。そのアプローチは、次の3つの主要な技術的ブレークスルーに基づいています:DeepSeek Sparse Attention(DSA)、計算複雑性を実質的に削減しながらModel性能を維持し、特に長文脈シナリオに最適化された効率的なアテンションメカニズム;GPT-5に匹敵するパフォーマンスと、Gemini-3.0-Proの高精度バリアントと並ぶ推論能力を実現するスケーラブルな強化学習フレームワーク;そして、ツール使用シナリオに推論を統合し、複雑なインタラクティブ環境での準拠性と一般化を改善する大規模エージェントタスク合成パイプラインです。Modelは2025年の国際数学オリンピック(IMO)および国際情報オリンピック(IOI)で金メダルの実績を達成しました。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.42
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.2-Exp
リリース日:2025/10/10
DeepSeek-V3.2-Expは、DeepSeekモデルの実験バージョンであり、V3.1-Terminusに基づいています。これは、長いコンテキストでのより高速で効率的なトレーニングとInferenceのためにDeepSeek Sparse Attention(DSA)をデビューさせます。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
0.41
/ M Tokens

Z.ai
Text Generation
GLM-4.6V
リリース日:2025/12/08
GLM-4.6Vは、同じパラメータスケールのモデルにおいて、視覚理解の分野でSOTA(最先端)の精度を達成しました。初めて、視覚モデルのアーキテクチャにFunction Call機能をネイティブに統合し、「視覚的認識」と「実行可能な行動」の間のギャップを橋渡しします。これにより、現実のビジネスシナリオにおけるMultimodal Agentの統一技術基盤が提供されます。さらに、視覚コンテキストウィンドウが128kに拡張され、長いVideoストリーム処理と高解像度のマルチImage分析をサポートします。...
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1-Terminus
リリース日:2025/09/29
DeepSeek-V3.1-Terminusは、V3.1の強みを基にし、主要なユーザーフィードバックに対応した更新バージョンです。言語の一貫性を向上させ、中国語と英語が混在したTextや時折発生する異常な文字を減らしています。また、Code AgentとSearch Agentの性能も強化されています。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3.1
リリース日:2025/08/25
DeepSeek-V3.1はハイブリッドモデルで、思考モードと非思考モードの両方をサポートしています。ポストトレーニングの最適化により、モデルのツール使用とエージェントタスクにおけるパフォーマンスが大幅に向上しました。DeepSeek-V3.1-Thinkは、DeepSeek-R1-0528と同等の回答品質を達成し、より迅速に応答します。...
Total Context:
164K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-V3
リリース日:2024/12/26
DeepSeek-V3-0324は、推論性能の大幅な向上、強力なフロントエンド開発スキル、よりスマートなツール使用能力など、いくつかの重要な側面で前モデルのDeepSeek-V3を大きく上回る改善を示しています。...
Total Context:
164K
Max output:
164K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1
リリース日:2025/05/28
DeepSeek-R1-0528は、複雑な推論タスクの処理において大幅な改善を示すアップグレードされたModelであり、幻覚率の低減、関数呼び出しのサポート強化、およびバイブコーディングのより良い経験も提供します。これは、O3およびGemini 2.5 Proに匹敵するパフォーマンスを達成します。...
Total Context:
164K
Max output:
164K
Input:
$
0.5
/ M Tokens
Output:
$
2.18
/ M Tokens

Nex AGI
DeepSeek-V3.1-Nex-N1
リリース日:2025/11/19
DeepSeek-V3.1-Nex-N1は、最先端のオープンソースモデルを基に開発され、後トレーニングを通じて最適化された大規模な言語Modelです。この最適化により、その機能が著しく向上し、エージェントタスクやコード生成と理解、ツールの使用、役割演技で卓越したパフォーマンスを発揮します。Modelは複雑なタスクを多段階計画に分解し、信頼性と正確な実行を確保するために積極的に不明点を明確化するのに優れています。...
Total Context:
131K
Max output:
164K
Input:
$
0.27
/ M Tokens
Output:
$
1.0
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M2
リリース日:2025/10/28
MiniMax-M2は、エージェントの効率性を再定義します。コンパクトで高速、コスト効果の高いMoE Model(総パラメータ2300億、アクティブパラメータ100億)で、コーディングとエージェンティックなタスクにおいてエリートなパフォーマンスを実現しながら、強力な一般知能を保持しています。アクティブパラメータはわずか100億で、MiniMax-M2は洗練されたエンドツーエンドのツール使用性能を提供し、現代のトップモデルから期待されるものを、これまで以上に簡単に展開とスケーリングできるスマートなフォームファクターで実現します。...
Total Context:
197K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
1.2
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Thinking
リリース日:2025/11/07
Kimi K2 Thinkingは最新かつ最も能力のあるオープンソースの思考モデルです。Kimi K2から始まり、段階的にツールを動的に利用する思考エージェントとして構築されました。人類最後の試験(HLE)、BrowseComp、その他のベンチマークで新たな最先端技術を設定し、複数ステップの推論深度を劇的に拡大し、200〜300の連続コールで安定したツール使用を維持します。同時に、K2 ThinkingはINT4量子化のネイティブModelで、262kコンテキストウィンドウを持ち、Inferenceの待ち時間とGPUメモリ使用量の損失のない削減を達成しています...
Total Context:
262K
Max output:
262K
Input:
$
0.55
/ M Tokens
Output:
$
2.5
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct-0905
リリース日:2025/09/08
Kimi K2-Instruct-0905は、最先端のエキスパート集合(MoE)言語モデルであり、Kimi K2の最新で最も高度なバージョンです。主な特徴には、特にフロントエンドとツール呼び出しのためのコーディング機能の強化、コンテキスト長が256k tokensに拡張されたこと、さまざまなエージェントスカフォールドとの統合の改善が含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.4
/ M Tokens
Output:
$
2.0
/ M Tokens
OpenAI
Text Generation
gpt-oss-120b
リリース日:2025/08/13
gpt-ossシリーズは、強力な推論、エージェントタスク、および多目的な開発者ユースケース向けに設計されたOpenAIのオープンウェイトのモデルです。gpt-oss-120bは生産、汎用、高度な推論ユースケース向けで、単一の80GB GPU(例えばNVIDIA H100やAMD MI300X)に収まります。...
Total Context:
131K
Max output:
8K
Input:
$
0.05
/ M Tokens
Output:
$
0.45
/ M Tokens
OpenAI
Text Generation
gpt-oss-20b
リリース日:2025/08/13
gpt-ossシリーズは、OpenAIの強力な推論、エージェンティックなタスク、および多目的な開発者のユースケースのために設計されたオープンウェイトモデルです。gpt-oss-20bは低遅延、ローカルまたは専門的なユースケース用です。...
Total Context:
131K
Max output:
8K
Input:
$
0.04
/ M Tokens
Output:
$
0.18
/ M Tokens

Z.ai
Text Generation
GLM-4.6
リリース日:2025/10/04
GLM-4.5と比較して、GLM-4.6はいくつかの重要な改善をもたらします。200K tokensまで拡張された長いコンテキストウィンドウ、優れたコーディング性能、高度な推論、より能力の高いエージェント、そして洗練された執筆を含みます。...
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
Text Generation
GLM-4.5-Air
リリース日:2025/07/28
GLM-4.5シリーズのモデルは、インテリジェントエージェントのために設計されたファウンデーションモデルです。GLM-4.5-Airは、合計1060億のパラメーターと、120億のアクティブパラメーターを備えた、よりコンパクトな設計を採用しています。また、思考モードと非思考モードの両方を提供するハイブリッド推論モデルでもあります。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

inclusionAI
Text Generation
Ling-flash-2.0
リリース日:2025/09/18
Ling-flash-2.0 は inclusionAI の言語 Model で、合計 1,000 億パラメーターを持ち、そのうち 61 億は token ごとにアクティブ化されます(48 億は非 Embedding)。Ling 2.0 アーキテクチャシリーズの一部として、軽量でありながら強力な専門集団(MoE) Model として設計されています。40B レベルの密集 Model や他の大規模な MoE Model に匹敵する、またはそれを超える性能を提供することを目指していますが、アクティブなパラメーター数は大幅に少なくなっています。この Model は、極端なアーキテクチャのデザインとトレーニング手法を通じて高性能と効率を達成することに焦点を当てた戦略を表しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
Text Generation
Ling-mini-2.0
リリース日:2025/09/10
Ling-mini-2.0は、小型でありながら高性能な大規模言語Modelで、MoEアーキテクチャに基づいて構築されています。総パラメータは16Bですが、tokenごとにアクティブ化されるのはわずか1.4B(非Embedding 789M)であり、非常に高速な生成が可能です。効率的なMoE設計と大規模高品質なトレーニングデータのおかげで、1.4Bのアクティブ化パラメータしか持たないにもかかわらず、Ling-mini-2.0はサブ10Bの密集LLMやさらに大きなMoE Modelに匹敵するトップクラスの下流タスクパフォーマンスを提供します。...
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
Text Generation
Ring-flash-2.0
リリース日:2025/09/29
Ring-flash-2.0は、Ling-flash-2.0-baseに基づいて深く最適化された高性能思考モデルです。これは、合計100Bのパラメータを持つ専門家混合(MoE)Modelですが、Inferenceごとに起動するのはわずか6.1Bです。このModelは、強化学習(RL)におけるMoE LLMsのトレーニング不安定性の課題に対処するために独自に開発された「icepop」アルゴリズムを活用しており、拡張されたRLトレーニングサイクル全体でその複雑な推論能力を継続的に向上させます。Ring-flash-2.0は、数学コンペティション、コード生成、論理的推論を含む挑戦的なベンチマークで大幅な突破を示しています。その性能は、40Bパラメータ未満のSOTA密集モデルを凌ぎ、より大きなオープンウェイトのMoE Modelやクローズドソースの高性能思考Model APIに匹敵します。より驚くべきことに、Ring-flash-2.0は主に複雑な推論のために設計されていますが、創造的なライティングにも強い能力を示します。その効率的なアーキテクチャのおかげで、高速Inferenceを達成し、高並列シナリオでの思考ModelのInferenceコストを大幅に削減します。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Tencent
Text Generation
Hunyuan-MT-7B
リリース日:2025/09/18
Hunyuan翻訳モデルは、翻訳モデルHunyuan-MT-7Bと統合モデルHunyuan-MT-Chimeraで構成されています。Hunyuan-MT-7Bは、7億パラメータを持つ軽量な翻訳モデルであり、ソースTextをターゲット言語に翻訳するために使用されます。モデルは、中国の5つの少数民族言語を含む33言語間の相互翻訳をサポートしています。WMT25機械翻訳コンペティションでは、Hunyuan-MT-7Bが参加した31の言語カテゴリーのうち30で1位を獲得し、その優れた翻訳能力を示しました。翻訳タスクにおいて、Tencent Hunyuanは、事前トレーニング、教師ありFine-tuning、翻訳強化、統合改善をカバーする包括的なトレーニングフレームワークを提案し、同規模の他のModelの中で最先端のパフォーマンスを達成しました。このModelは計算効率が高く、さまざまなアプリケーションシナリオに適しています。...
Total Context:
33K
Max output:
33K
Input:
$
0.0
/ M Tokens
Output:
$
0.0
/ M Tokens

Qwen
Text Generation
Qwen3-Next-80B-A3B-Instruct
リリース日:2025/09/18
Qwen3-Next-80B-A3B-Instructは、AlibabaのQwenチームによってリリースされた次世代のファウンデーションModelです。新しいQwen3-Nextアーキテクチャに基づいて構築されており、究極のトレーニングとInferenceの効率性を追求しています。このModelには、ハイブリッド・アテンション・メカニズム(ゲーティッド・デルタネットとゲーティッド・アテンション)、高スパース性のMixture-of-Experts(MoE)構造、およびさまざまな安定性の最適化などの革新的な機能が組み込まれています。80億パラメータのスパースModelとして、Inference中に1tokenあたり約30億のパラメータのみがアクティブ化され、計算コストを大幅に削減し、32K tokensを超える長いコンテキストタスクのためにQwen3-32B Modelと比べて10倍以上のスループットを提供します。これは汎用タスク向けに最適化された指示調整版であり、「思考モード」はサポートしていません。パフォーマンス面では、いくつかのベンチマークでQwenのフラッグシップModelであるQwen3-235Bに匹敵し、超長コンテキストシナリオで顕著な利点を示しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.14
/ M Tokens
Output:
$
1.4
/ M Tokens

Qwen
Text Generation
Qwen3-Next-80B-A3B-Thinking
リリース日:2025/09/25
Qwen3-Next-80B-A3B-Thinkingは、AlibabaのQwenチームによって開発された、次世代の基礎モデルです。このモデルは、複雑な推論タスク向けに特別に設計されています。Qwen3-Nextアーキテクチャに基づいて構築されており、ハイブリッド・アテンション・メカニズム(Gated DeltaNetとGated Attention)と高スパース性のMixture-of-Experts(MoE)構造を組み合わせて、究極のトレーニングとInference効率を実現します。80億パラメータのスパースなModelとして、Inference中に約30億のパラメータのみを活性化することで、計算コストを大幅に削減し、32K tokenを超える長いコンテキストタスクにおいて、Qwen3-32B Modelよりも10倍以上のスループットを提供します。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、エージェンティックプランニングのような要求の厳しいマルチステップの問題に最適化されており、デフォルトで構造化された「考え中」のトレースをOutputします。性能面では、より高価なモデルであるQwen3-32B-Thinkingを上回り、複数のベンチマークでGemini-2.5-Flash-Thinkingの実績を上回っています。...
Total Context:
262K
Max output:
262K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-480B-A35B-Instruct
リリース日:2025/07/31
Qwen3-Coder-480B-A35B-Instructは、Alibabaによってこれまでにリリースされた中で最もエージェンティックなコードModelです。それは4800億の総パラメータと350億の活性化パラメータを持つエキスパートのミクスチャー (MoE) Modelであり、効率とパフォーマンスのバランスを取っています。このModelは256K(約262,144)tokenのコンテキスト長をネイティブにサポートし、YaRNのような外挿法を用いることで100万tokenまで拡張可能で、リポジトリ規模のコードベースや複雑なプログラミングタスクを処理することができます。Qwen3-Coderは、エージェンティックコーディングワークフローのために特別に設計されており、コードを生成するだけでなく、開発者ツールや環境と自律的に対話して複雑な問題を解決します。最先端のオープンModelの中でコーディングとエージェンティックなベンチマークで最先端の結果を達成しており、Claude Sonnet 4のような先進的なModelに匹敵するパフォーマンスを持っています。このModelと共に、Alibabaはその強力なエージェンティックコーディング能力を完全に発揮するために設計されたコマンドラインツールであるQwen Codeもオープンソース化しました。...
Total Context:
262K
Max output:
262K
Input:
$
0.25
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-30B-A3B-Instruct
リリース日:2025/08/01
Qwen3-Coder-30B-A3B-Instructは、AlibabaのQwenチームによって開発されたQwen3シリーズのコードModelです。洗練され最適化されたModelとして、強化されたコーディング機能に焦点を当てつつ、印象的なパフォーマンスと効率を維持しています。Agentic Coding、Agentic Browser-Use、その他の基礎的なコーディングタスクのような複雑なタスクにおいて、オープンソースのModel間で顕著なパフォーマンスの優位性を示しています。このModelは、256K tokenという長いコンテキストをネイティブにサポートしており、1M tokenまで拡張可能で、リポジトリ規模の理解と処理をより良くします。さらに、Qwen CodeやCLINEのようなプラットフォームのための強力なエージェンティックコーディングのサポートを提供し、特別に設計された関数呼び出しフォーマットを備えています。...
Total Context:
262K
Max output:
262K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Instruct-2507
リリース日:2025/07/30
Qwen3-30B-A3B-Instruct-2507はQwen3-30B-A3B無考モードの更新版です。それは30.5億の総パラメータと3.3億の活性化パラメータを持つエキスパートの組合せ(MoE)モデルです。このバージョンは、指示の遵守、論理的推論、Text理解、数学、科学、コーディング、ツールの使用などの一般的な能力の顕著な改善を含む重要な強化を特徴としています。また、多言語にわたる長い知識のカバー率における大幅な向上を示し、主観的でオープンエンドなタスクにおいてユーザーの好みとの整合性が著しく向上し、より役立つ応答と高品質なText生成を可能にします。さらに、256Kまでの長いコンテキスト理解能力が強化されました。このModelは無考モードのみをサポートし、Outputに`<think></think>`ブロックを生成しません。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Thinking-2507
リリース日:2025/07/31
Qwen3-30B-A3B-Thinking-2507は、アリババのQwenチームによってリリースされたQwen3シリーズの最新のシンキングModelです。30.5億の総パラメータと3.3億のアクティブパラメータを持つ専門家の集合(MoE)Modelであり、複雑なタスクへの能力向上に注力しています。Modelは、論理的推論、数学、科学、コーディング、通常は人間の専門知識を必要とする学術ベンチマークなどの推論タスクで顕著に改善されたパフォーマンスを示しています。また、指示のフォロー、ツールの使用、Text生成、人間の好みに一致する能力など、一般的な能力も大幅に向上しています。Modelは256Kの長文脈理解能力をネイティブにサポートしており、最大100万tokenまで拡張可能です。このバージョンは、段階的な推論を通じて非常に複雑な問題に取り組むために「シンキングモード」に特化して設計されており、代理行動能力にも優れています。...
Total Context:
262K
Max output:
131K
Input:
$
0.09
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Instruct-2507
リリース日:2025/07/23
Qwen3-235B-A22B-Instruct-2507は、Alibaba CloudのQwenチームによって開発されたQwen3シリーズのフラッグシップMixture-of-Experts(MoE)大規模言語モデルです。このモデルは、合計2350億のパラメータを持ち、各フォワードパスで22億が活性化されます。Qwen3-235B-A22B非思考モードの更新版としてリリースされ、指示のフォロー、論理的な推論、テキスト理解、数学、科学、コーディング、およびツールの使用などの一般的な機能において重要な強化を備えています。さらに、このモデルは複数の言語にわたる長尾の知識カバレッジにおいて大幅な向上を示し、主観的でオープンエンドのタスクにおいてユーザーの好みにより良く合致するようになり、より役立つ応答と高品質なテキスト生成を可能にします。特に、256K (262,144 tokens) の広範なコンテキストウィンドウをネイティブにサポートし、長文コンテキストの理解能力を向上させます。このバージョンは非思考モードに専念し、<think>ブロックを生成せず、直接的なQ&Aや知識検索のようなタスクにおいてより効率的で正確な応答を提供することを目指しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Thinking-2507
リリース日:2025/07/28
Qwen3-235B-A22B-Thinking-2507は、アリババのQwenチームによって開発されたQwen3の大規模言語モデルシリーズのメンバーで、非常に複雑な推論タスクを専門としています。このModelは、Mixture-of-Experts (MoE)アーキテクチャに基づいており、合計2350億のパラメータと、tokenあたり約220億のアクティブパラメータを持ち、計算効率を高めながら強力なパフォーマンスを維持しています。専用の「thinking」Modelとして、人間の専門知識を必要とする課題(論理的推論、数学、科学、コーディング、学術ベンチマークなど)において、オープンソースのthinkingモデルの中で最先端の結果を達成しています。さらに、このModelは、指示の追従、ツールの使用、Text生成といった一般的な能力が強化されており、256Kのロングコンテキスト理解能力をネイティブにサポートし、深い推論や長文の処理を必要とするシナリオに理想的です。...
Total Context:
262K
Max output:
262K
Input:
$
0.13
/ M Tokens
Output:
$
0.6
/ M Tokens
ByteDance
Text Generation
Seed-OSS-36B-Instruct
リリース日:2025/09/04
Seed-OSSは、ByteDance Seedチームによって開発されたオープンソースの大規模言語Modelのシリーズであり、強力な長文コンテキスト処理、推論、エージェント機能、および汎用能力のために設計されています。このシリーズ内では、Seed-OSS-36B-Instructは、36億のパラメータを持つ命令調整済みModelであり、ネイティブに超長文コンテキスト長をサポートし、巨大な文書や複雑なコードベースを単一のパスで処理することができます。このModelは、推論、コード生成、およびエージェントタスク(ツールの使用など)のために特別に最適化されつつ、バランスの取れた優れた汎用能力を維持しています。このModelの重要な特徴は、「Thinking Budget」機能であり、ユーザーが必要に応じて推論の長さを柔軟に調整できるようにし、実際のアプリケーションでのInference効率を効果的に向上させます。...
Total Context:
262K
Max output:
262K
Input:
$
0.21
/ M Tokens
Output:
$
0.57
/ M Tokens

BAIDU
Text Generation
ERNIE-4.5-300B-A47B
リリース日:2025/07/02
ERNIE-4.5-300B-A47Bは、Baiduによって開発された大規模言語Modelであり、Mixture-of-Experts (MoE)アーキテクチャに基づいています。このModelは合計3000億のパラメータを持っていますが、tokenごとのInferenceでは470億のパラメータのみを活性化し、強力なパフォーマンスと計算効率を両立させています。ERNIE 4.5シリーズのコアModelの一つとして、PaddlePaddle深層学習フレームワーク上でトレーニングされ、Text理解、生成、推論、コーディングなどのタスクで優れた能力を示しています。このModelは革新的なMultimodal異種MoE事前トレーニング手法を利用しており、Textと視覚モダリティの共同トレーニングを通じてその全体的な能力を効果的に向上させ、指示に従うことや世界の知識記憶において顕著な結果を示しています。BaiduはAI技術の研究と応用を促進するために、このModelを含むシリーズの他のモデルをオープンソース化しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.28
/ M Tokens
Output:
$
1.1
/ M Tokens

Tencent
Text Generation
Hunyuan-A13B-Instruct
リリース日:2025/06/30
Hunyuan-A13B-Instructは、その80 Bのパラメーターのうち13 Bのみをアクティブにしますが、主流のベンチマークでより大きなLLMに匹敵します。ハイブリッド推論を提供し、低遅延の「高速」モードまたは高Precisionの「低速」モードを各呼び出しごとに切り替えることができます。ネイティブの256 K-tokenコンテキストにより、劣化せずに本のような長さのドキュメントを処理できます。エージェントスキルはBFCL-v3、τ-Bench、C3-Benchのリーダーシップに合わせて調整されており、優れた自律型アシスタントのバックボーンとなっています。グループ化されたQuery Attentionと多形式の量子化により、メモリ効率の良い、GPUに優しいInferenceを実現し、実際の展開での使用に備えています。企業向けアプリケーションのためのマルチリンガルサポートと強固な安全性調整を備えています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct
リリース日:2025/07/13
Kimi K2は、Mixture-of-Experts (MoE)ファウンデーションModelで、コードおよびエージェント機能に優れ、総計1兆のパラメーターと320億のアクティブなパラメーターを特徴としています。一般的な知識推論、プログラミング、数学、およびエージェント関連のタスクをカバーするベンチマーク評価において、K2モデルは他の主要なオープンソースモデルを凌駕します。...
Total Context:
131K
Max output:
131K
Input:
$
0.58
/ M Tokens
Output:
$
2.29
/ M Tokens

Moonshot AI
Text Generation
Kimi-Dev-72B
リリース日:2025/06/19
Kimi-Dev-72Bは、オープンソースのコーディング用大規模言語Modelで、SWE-bench Verifiedで60.4%を達成し、オープンソースModelの中で最先端の結果を設定しています。大規模な強化学習を通じて最適化され、Docker内の実際のコードベースを自律的に修正し、完全なテストスイートが合格したときのみ報酬を得ます。これにより、Modelが実際のソフトウェア工学の基準に沿った正確で堅牢かつ実用的なソリューションを提供することが保証されます。...
Total Context:
131K
Max output:
131K
Input:
$
0.29
/ M Tokens
Output:
$
1.15
/ M Tokens

MiniMaxAI
Text Generation
MiniMax-M1-80k
リリース日:2025/06/17
MiniMax-M1は、456 Bパラメータとトークンあたり45.9 Bがアクティブなオープンウェイトの大規模ハイブリッドアテンション推論モデルです。これはネイティブに1 M-tokenコンテキストをサポートし、ライトニングアテンションによりDeepSeek R1で100 K tokenの際に75%のFLOPsを節約し、MoEアーキテクチャを活用しています。CISPOとハイブリッド設計による効率的なRLトレーニングにより、長いInput推論および現実世界のソフトウェアエンジニアリングタスクで最先端のパフォーマンスを実現します。...
Total Context:
131K
Max output:
131K
Input:
$
0.55
/ M Tokens
Output:
$
2.2
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B
リリース日:2025/04/30
Qwen3-30B-A3BはQwenシリーズの最新の大規模言語Modelであり、30.5Bの総パラメータと3.3Bの活性化パラメータを持つMixture-of-Experts (MoE)アーキテクチャを特徴としています。このModelは、思考モード(複雑な論理的推論、数学、コーディング用)と非思考モード(効率的で汎用的な対話用)のシームレスな切り替えを独自にサポートします。創造的な文章、ロールプレイング、および複数ターンの対話において、人間の好みの整合性を著しく向上させた推論能力を示します。このModelは、外部ツールとの正確な統合におけるエージェント能力で優れ、多言語指示に強く、100以上の言語と方言をサポートした翻訳能力を持っています。...
Total Context:
131K
Max output:
131K
Input:
$
0.09
/ M Tokens
Output:
$
0.45
/ M Tokens

Qwen
Text Generation
Qwen3-32B
リリース日:2025/04/30
Qwen3-32Bは、Qwenシリーズの最新の大規模言語モデルで、32.8Bのパラメーターを備えています。このモデルは、シームレスな切り替えを特長とし、複雑な論理的推論、数学、コーディングに対応する考えるモードと、効率的で汎用的な対話を行う非考えるモードを切り替えます。これは、数理、コード生成、常識的な論理推論において、以前のQwQやQwen2.5指示モデルを超える大幅に強化された推論能力を示しています。そのため、創造的な文章作成、ロールプレイング、マルチターンの対話において人間の好みとの整合性に優れています。さらに、強力な多言語の指示追従と翻訳能力を備え、100以上の言語と方言に対応しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-14B
リリース日:2025/04/30
Qwen3-14Bは、Qwenシリーズの最新の大型言語Modelで、14.8Bのパラメーターを持っています。このModelは、複雑な論理的推論、数学、コーディングの場合は思考モード、効率的で汎用的な対話のためには非思考モードの間でシームレスに切り替えることを独自にサポートします。それは数学、コード生成、常識的な論理推論において以前のQwQおよびQwen2.5指示Modelsを超える、著しく強化された推論能力を示しています。このModelは、創造的な執筆、ロールプレイ、マルチターン対話のための人間の好みの調整においても優れています。さらに、100以上の言語と方言を強力な多言語指示と翻訳能力でサポートします。...
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-8B
リリース日:2025/04/30
Qwen3-8BはQwenシリーズの最新の大規模言語モデルで、8.2Bのパラメータを持っています。このModelは、複雑な論理的推論、数学、コーディングに適した思考モードと、効率的な汎用対話に適した非思考モードの間でシームレスに切り替えることができるユニークな機能を持っています。それは、前のQwQやQwen2.5の指示モデルを超えた数学、コード生成、および常識的論理推論において、顕著に強化された推論能力を示しています。このModelは、創作、役割演技、マルチターン対話における人間の好みの調整に優れています。さらに、強力な多言語指示追従および翻訳能力を持ち、100以上の言語と方言をサポートしています...
Total Context:
131K
Max output:
131K
Input:
$
0.06
/ M Tokens
Output:
$
0.06
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-8B
リリース日:2025/06/06
Qwen3-Reranker-8Bは、Qwen3シリーズからの80億パラメータのText再ランク付けModelです。クエリへの関連性に基づいてドキュメントを正確に再順序付けすることによって、検索結果の品質を改善し、改善するように設計されています。強力なQwen3基盤モデルをベースに構築されており、32kのコンテキスト長で長いTextを理解し、100以上の言語をサポートします。Qwen3-Reranker-8B Modelは、さまざまなTextおよびコード検索シナリオで最先端のパフォーマンスを提供する柔軟なシリーズの一部です。...
$
0.04
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-8B
リリース日:2025/06/06
Qwen3-Embedding-8Bは、Qwen3 Embeddingシリーズの最新のプロプライエタリModelであり、特にText Embeddingおよびランキングタスク用に設計されています。この8BパラメータModelは、Qwen3シリーズの密な基盤Modelの上に構築されており、最大32Kのコンテキスト長をサポートし、最大4096の次元でEmbeddingを生成できます。このModelは、100を超える言語をサポートする優れた多言語機能を継承しており、長文理解と推論スキルを備えています。2025年6月5日時点ではMTEB多言語リーダーボードで第1位(スコア70.58)にランクされ、テキスト検索、コード検索、Text分類、クラスタリング、bitextマイニングなど、さまざまなタスクで最先端のパフォーマンスを示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクター次元(32から4096)と指示に応じた機能を提供します。...
Input:
$
0.04
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-4B
リリース日:2025/06/06
Qwen3-Reranker-4Bは、Qwen3シリーズの強力なテキストリランキングモデルであり、40億パラメータを備えています。これは、クエリに基づいてドキュメントの初期リストを再編成することで、検索結果の関連性を大幅に向上させるように設計されています。このモデルは、Qwen3の基盤のコアの強みを継承しており、32kのコンテキスト長までの長いテキストの優れた理解力や100以上の言語にわたる強力な能力を含んでいます。ベンチマークによると、Qwen3-Reranker-4Bモデルは、さまざまなテキストとコードの取得評価において優れたパフォーマンスを示しています。...
$
0.02
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-4B
リリース日:2025/06/06
Qwen3-Embedding-4Bは、Qwen3 Embeddingシリーズ最新の独自Modelで、特にText Embeddingおよびランキングタスク用に設計されています。この4BパラメータModelは、Qwen3シリーズの密集した基礎Modelを基にしており、最大32Kのコンテキスト長をサポートし、最大2560の次元でEmbeddingを生成できます。このModelは、100を超える言語に対応した卓越した多言語機能を継承しており、長文理解と推論スキルを備えています。それは、MTEB多言語リーダーボードで優れた業績(スコア69.45)を達成し、テキスト検索、コード検索、Text分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクトル次元(32から2560)と命令対応機能を提供し、効率性と効果性の間で最適なバランスを提供します。...
Input:
$
0.02
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-0.6B
リリース日:2025/06/06
Qwen3-Reranker-0.6BはQwen3シリーズからのText再ランキングModelです。これは特定のクエリに対する関連性に基づいてドキュメントを再注文することにより、初期取得システムの結果を洗練するために特別に設計されています。0.6Bパラメータと32kのコンテキスト長を持つこのModelは、Qwen3の基盤の強力な多言語(100以上の言語をサポート)、長文理解、および推論能力を活用しています。評価結果は、Qwen3-Reranker-0.6BがMTEB-R、CMTEB-R、およびMLDRを含む様々なText取得ベンチマークで強力なパフォーマンスを達成することを示しています。...
$
0.01
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-0.6B
リリース日:2025/06/06
Qwen3-Embedding-0.6Bは、Qwen3 Embeddingシリーズ内の最新の独自モデルであり、特にテキストEmbeddingおよびランキングタスク用に設計されています。Qwen3シリーズの密集した基盤モデルの上に構築されたこの0.6Bパラメータモデルは、32Kまでのコンテキスト長をサポートし、最大1024の次元でEmbeddingを生成できます。このModelは、100以上の言語をサポートする優れた多言語機能を引き継ぎ、長文理解と推論能力を備えています。MTEB多言語リーダーボードで強力なパフォーマンスを発揮し(スコア64.33)、テキスト検索、コード検索、テキスト分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、柔軟なベクトル次元(32から1024)と特定のタスクおよびシナリオでのパフォーマンス向上のための指示対応能力を提供し、効率と効果の両方を優先するアプリケーションにとって理想的な選択肢となります。...
Input:
$
0.01
/ M Tokens

Z.ai
Text Generation
GLM-Z1-32B-0414
リリース日:2025/04/18
GLM-Z1-32B-0414は、深い思考能力を持つ推論Modelです。このModelは、コールドスタートと拡張された強化学習を通じてGLM-4-32B-0414をベースに開発され、数学、コード、論理を含むタスクに対するさらなるトレーニングが行われました。ベースModelと比較して、GLM-Z1-32B-0414は数学的能力と複雑なタスクを解決する能力を大幅に向上させています。トレーニングプロセス中に、チームはペアワイズランキングフィードバックに基づいた一般的な強化学習も導入し、Modelの一般的な能力をさらに強化しました。32Bのパラメータしか持っていないにもかかわらず、一部のタスクでは671Bパラメータを持つDeepSeek-R1に匹敵する性能を示します。AIME 24/25、LiveCodeBench、GPQAのベンチマークでの評価を通じて、このModelは強力な数学的推論能力を示し、より広範な複雑なタスクに対するソリューションをサポートできます。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
Text Generation
GLM-4-32B-0414
リリース日:2025/04/18
GLM-4-32B-0414はGLMファミリーの新世代のModelであり、320億のパラメータを持っています。その性能は、OpenAIのGPTシリーズやDeepSeekのV3/R1シリーズに匹敵し、非常にユーザーフレンドリーなローカルデプロイメント機能をサポートしています。GLM-4-32B-Base-0414は、高品質なデータの15Tを含む、大量の推論型合成データを事前に学習し、以降の強化学習拡張の基礎を築いています。ポストトレーニング段階では、ダイアログシナリオ向けの人間の好みに合わせた調整に加え、拒否サンプリングや強化学習などの技術を用いて、命令のフォロー、エンジニアリングコード、関数呼び出しにおけるModelの性能を強化し、エージェントタスクに必要な原子能力を強化しました。GLM-4-32B-0414は、エンジニアリングコード、アーティファクト生成、関数呼び出し、検索ベースのQ&A、レポート生成などの分野で良好な結果を達成しています。いくつかのベンチマークでは、その性能はGPT-4oやDeepSeek-V3-0324(671B)といったより大きなModelのそれに匹敵するか、それを超えることもあります。...
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
Text Generation
GLM-Z1-9B-0414
リリース日:2025/04/18
GLM-Z1-9B-0414は、GLMシリーズの小型のModelで、わずか90億のパラメータでオープンソースの伝統を維持しながらも驚くべき能力を持っています。規模が小さいにもかかわらず、GLM-Z1-9B-0414は数学的推論および一般的なタスクにおいて優れたパフォーマンスを示します。その全体的なパフォーマンスは、同サイズのオープンソースModelの中で既にトップレベルです。研究チームは、より大きなModelと同じシリーズの技術を用いてこの9B Modelをトレーニングしました。特にリソースが制限されたシナリオでは、このModelは効率と効果の間で優れたバランスを達成し、軽量な展開を求めるユーザーに強力なオプションを提供します。このModelは深い思考能力を備えており、YaRNテクノロジーを通じて長いコンテキストを処理できるため、計算資源が限られた状態で数学的推論能力を必要とするアプリケーションに特に適しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens

Z.ai
Text Generation
GLM-4-9B-0414
リリース日:2025/04/18
GLM-4-9B-0414は、9億のパラメータを持つGLMシリーズの小型モデルです。このModelは、GLM-4-32Bシリーズの技術的特徴を受け継いでおり、より軽量な展開オプションを提供しています。規模が小さいにもかかわらず、GLM-4-9B-0414はコード生成、ウェブデザイン、SVGグラフィックス生成、検索ベースの執筆タスクにおいて優れた能力を示しています。このModelは外部ツールを呼び出してその能力を拡張する機能呼び出し機能もサポートしています。このModelはリソース制約のあるシナリオで効率と効果のバランスが良く、限られた計算資源下でAIモデルを展開する必要があるユーザーにとって強力な選択肢を提供します。同じシリーズの他のModelのように、GLM-4-9B-0414も様々なベンチマークテストで競争力のあるパフォーマンスを示しています。...
Total Context:
33K
Max output:
33K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens

Qwen
Text Generation
QwQ-32B
リリース日:2025/03/06
QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。...
Total Context:
131K
Max output:
131K
Input:
$
0.15
/ M Tokens
Output:
$
0.58
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-32B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-32BはQwen2.5-32Bに基づいて蒸留されたModelです。ModelはDeepSeek-R1によって生成された80万の選別されたサンプルを使用してファインチューニングされ、数学、プログラミング、推論タスクにおいて卓越したパフォーマンスを示します。AIME 2024、MATH-500、GPQA Diamondを含む様々なベンチマークで印象的な結果を達成し、MATH-500では94.3%の正確性を達成し、その強力な数学的推論能力を示しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-14B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースにした蒸留されたModelです。このModelは、DeepSeek-R1によって生成された800kの精選されたサンプルを使用してファインチューニングされ、優れた推論能力を示しています。MATH-500で93.9%の精度、AIME 2024で69.7%の合格率、CodeForcesでは1481の評価を達成し、数学およびプログラミングタスクにおけるその卓越した能力を示しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens
DeepSeek
Text Generation
DeepSeek-R1-Distill-Qwen-7B
リリース日:2025/01/20
DeepSeek-R1-Distill-Qwen-7Bは、Qwen2.5-Math-7Bに基づいた蒸留モデルです。このモデルは、DeepSeek-R1によって生成された80万の精選されたサンプルを使用してファインチューニングされ、強力な推論能力を示しています。MATH-500では92.8%の正確性、AIME 2024では55.5%の合格率、CodeForcesでは1189の評価を達成し、7Bスケールモデルとして卓越した数学的およびプログラミングの能力を示しています。...
Total Context:
33K
Max output:
16K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens

Qwen
Text Generation
Qwen2.5-Coder-32B-Instruct
リリース日:2024/11/11
Qwen2.5-Coder-32B-Instructは、Qwen2.5をベースに開発されたコード特化の大規模言語モデルです。このModelは、5.5兆のtokenを使ってトレーニングを受けており、コード生成、コード推論、そしてコード修正において大きな改善を遂げています。現在、オープンソースのコード言語モデルとして最先端であり、そのコーディング能力はGPT-4に匹敵します。このModelは、コーディング能力を向上させただけでなく、数学や一般的な能力においても強みを持ち、長Text処理もサポートしています。...
Total Context:
33K
Max output:
4K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct-128K
リリース日:2024/09/18
Qwen2.5-72B-InstructはAlibaba Cloudによってリリースされた最新の大規模言語Modelシリーズの1つです。この72BModelは、コーディングや数学などの分野で大幅な改善を示しています。最大128Kのtokensのコンテキスト長をサポートします。このModelは、多言語サポートも提供しており、中国語、英語を含む29以上の言語をカバーしています。特にJSON形式における指示の追従、構造化データの理解、構造化されたOutputsの生成において顕著な改善を示しています。...
Total Context:
131K
Max output:
4K
Input:
$
0.59
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct
リリース日:2024/09/18
Qwen2.5-72B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この72B Modelは、コーディングや数学などの分野で大幅な改善を示しています。この Modelは中国語や英語を含む29以上の言語をサポートし、多言語対応を提供します。指示の理解、構造化データの理解、特にJSON形式の構造化 Outputの生成において顕著な向上を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.59
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-32B-Instruct
リリース日:2024/09/19
Qwen2.5-32B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この32B Modelは、コーディングや数学などの分野で大幅な改善を示しています。Modelはまた、多言語サポートを提供し、中国語、英語を含む29以上の言語をカバーしています。指示の理解、構造化データの理解、特にJSON形式での構造化Outputの生成において、顕著な改善が見られます。...
Total Context:
33K
Max output:
4K
Input:
$
0.18
/ M Tokens
Output:
$
0.18
/ M Tokens

Qwen
Text Generation
Qwen2.5-14B-Instruct
リリース日:2024/09/18
Qwen2.5-14B-Instructは、Alibaba Cloudによってリリースされた最新の大規模言語モデルシリーズの一つです。この14B Modelは、コーディングや数学などの分野で大幅な改善を示しています。このModelは、中国語や英語を含む29以上の言語をカバーするマルチ言語サポートも提供しています。JSON形式で特に、指示のフォロー、構造化データの理解、および構造化されたOutputの生成において顕著な進歩を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.1
/ M Tokens
Output:
$
0.1
/ M Tokens

Qwen
Text Generation
Qwen2.5-7B-Instruct
リリース日:2024/09/18
Qwen2.5-7B-Instructは、Alibaba Cloudからリリースされた最新の大規模言語モデルシリーズの一つです。この7B Modelは、コーディングや数学などの分野で重要な改善を示しています。また、このModelは中国語、英語を含む29以上の言語をカバーする多言語サポートを提供します。このModelは、命令の遵守、構造化データの理解、特にJSONのような構造化されたOutputの生成において顕著な強化を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.05
/ M Tokens
Output:
$
0.05
/ M Tokens

Meta Llama
Text Generation
Meta-Llama-3.1-8B-Instruct
リリース日:2025/04/23
メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。...
Total Context:
33K
Max output:
4K
Input:
$
0.06
/ M Tokens
Output:
$
0.06
/ M Tokens

