最先端

AI Model ライブラリ

1つのAPIで200以上の最先端AIモデルでInferenceを実行し、数秒でデプロイ

最先端

AI Model ライブラリ

1つのAPIで200以上の最先端AIモデルでInferenceを実行し、数秒でデプロイ

最先端

AI Model ライブラリ

1つのAPIで200以上の最先端AIモデルでInferenceを実行し、数秒でデプロイ

Moonshot AI

chat

Kimi-K2.5

リリース日:2026/01/30

Kimi K2.5は、Kimi-K2-Baseの上に約15兆の混合視覚およびText tokensで継続的に事前学習されたオープンソースのネイティブMultimodalなエージェントモデルです。1TパラメータMoEアーキテクチャ(32Bアクティブ)と256Kコンテキスト長を備え、Visionと言語の理解を高度なエージェント機能とシームレスに統合し、即時モードと思考モード、そして会話およびエージェントのパラダイムをサポートします。...

Total Context:

262K

Max output:

262K

Input:

$

0.55

/ M Tokens

Output:

$

3.0

/ M Tokens

MiniMaxAI

chat

MiniMax-M2.1

リリース日:2025/12/23

MiniMax-M2.1は、エージェント機能に最適化されたオープンソースの大型言語Modelであり、コーディング、ツールの使用、指示の遵守、長期間の計画に優れています。多言語のソフトウェア開発と複雑な多段階のワークフローをサポートし、多言語シナリオではSWE-bench Verifiedで74.0を達成し、Claude Sonnet 4.5を凌駕しています。...

Total Context:

197K

Max output:

131K

Input:

$

0.29

/ M Tokens

Output:

$

1.2

/ M Tokens

Z.ai

chat

GLM-4.7

リリース日:2025/12/23

GLM-4.7はZhipuの新世代フラッグシップModelで、総パラメーターは355B、アクティベートパラメーターは32Bあり、会話、推論、エージェント機能において総合的なアップグレードを提供します。回答はより簡潔で自然になり、執筆はより没入感があり、ツールコール指示はより確実に遵守され、アーティファクトと代理コーディングのフロントエンド仕上げや、長期的タスク完了効率がさらに向上しました。...

Total Context:

205K

Max output:

205K

Input:

$

0.42

/ M Tokens

Output:

$

2.2

/ M Tokens

DeepSeek

chat

DeepSeek-V3.2

リリース日:2025/12/04

DeepSeek-V3.2は、優れた推論とエージェントのパフォーマンスを高い計算効率で調和させるModelです。そのアプローチは、次の3つの主要な技術的ブレークスルーに基づいています:DeepSeek Sparse Attention(DSA)、計算複雑性を実質的に削減しながらModel性能を維持し、特に長文脈シナリオに最適化された効率的なアテンションメカニズム;GPT-5に匹敵するパフォーマンスと、Gemini-3.0-Proの高精度バリアントと並ぶ推論能力を実現するスケーラブルな強化学習フレームワーク;そして、ツール使用シナリオに推論を統合し、複雑なインタラクティブ環境での準拠性と一般化を改善する大規模エージェントタスク合成パイプラインです。Modelは2025年の国際数学オリンピック(IMO)および国際情報オリンピック(IOI)で金メダルの実績を達成しました。...

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.42

/ M Tokens

DeepSeek

chat

DeepSeek-V3.2-Exp

リリース日:2025/10/10

DeepSeek-V3.2-Expは、DeepSeekモデルの実験バージョンであり、V3.1-Terminusに基づいています。これは、長いコンテキストでのより高速で効率的なトレーニングとInferenceのためにDeepSeek Sparse Attention(DSA)をデビューさせます。...

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.41

/ M Tokens

Z.ai

chat

GLM-4.6V

リリース日:2025/12/08

GLM-4.6Vは、同じパラメータスケールのモデルにおいて、視覚理解の分野でSOTA(最先端)の精度を達成しました。初めて、視覚モデルのアーキテクチャにFunction Call機能をネイティブに統合し、「視覚的認識」と「実行可能な行動」の間のギャップを橋渡しします。これにより、現実のビジネスシナリオにおけるMultimodal Agentの統一技術基盤が提供されます。さらに、視覚コンテキストウィンドウが128kに拡張され、長いVideoストリーム処理と高解像度のマルチImage分析をサポートします。...

Total Context:

131K

Max output:

131K

Input:

$

0.3

/ M Tokens

Output:

$

0.9

/ M Tokens

DeepSeek

chat

DeepSeek-V3.1-Terminus

リリース日:2025/09/29

DeepSeek-V3.1-Terminusは、V3.1の強みを基にし、主要なユーザーフィードバックに対応した更新バージョンです。言語の一貫性を向上させ、中国語と英語が混在したTextや時折発生する異常な文字を減らしています。また、Code AgentとSearch Agentの性能も強化されています。...

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-V3.1

リリース日:2025/08/25

DeepSeek-V3.1はハイブリッドモデルで、思考モードと非思考モードの両方をサポートしています。ポストトレーニングの最適化により、モデルのツール使用とエージェントタスクにおけるパフォーマンスが大幅に向上しました。DeepSeek-V3.1-Thinkは、DeepSeek-R1-0528と同等の回答品質を達成し、より迅速に応答します。...

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-V3

リリース日:2024/12/26

DeepSeek-V3-0324は、推論性能の大幅な向上、強力なフロントエンド開発スキル、よりスマートなツール使用能力など、いくつかの重要な側面で前モデルのDeepSeek-V3を大きく上回る改善を示しています。...

Total Context:

164K

Max output:

164K

Input:

$

0.25

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-R1

リリース日:2025/05/28

DeepSeek-R1-0528は、複雑な推論タスクの処理において大幅な改善を示すアップグレードされたModelであり、幻覚率の低減、関数呼び出しのサポート強化、およびバイブコーディングのより良い経験も提供します。これは、O3およびGemini 2.5 Proに匹敵するパフォーマンスを達成します。...

Total Context:

164K

Max output:

164K

Input:

$

0.5

/ M Tokens

Output:

$

2.18

/ M Tokens

Tongyi-MAI

text-to-image

Z-Image-Turbo

リリース日:2025/12/04

$

0.005

/ Image

Nex AGI

chat

DeepSeek-V3.1-Nex-N1

リリース日:2025/11/19

DeepSeek-V3.1-Nex-N1は、最先端のオープンソースモデルを基に開発され、後トレーニングを通じて最適化された大規模な言語Modelです。この最適化により、その機能が著しく向上し、エージェントタスクやコード生成と理解、ツールの使用、役割演技で卓越したパフォーマンスを発揮します。Modelは複雑なタスクを多段階計画に分解し、信頼性と正確な実行を確保するために積極的に不明点を明確化するのに優れています。...

Total Context:

131K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

Black Forest Labs

text-to-image

FLUX.2 [flex]

リリース日:2025/12/11

$

0.06

/ Image

Black Forest Labs

text-to-image

FLUX.2 [pro]

リリース日:2025/12/11

$

0.03

/ Image

MiniMaxAI

chat

MiniMax-M2

リリース日:2025/10/28

MiniMax-M2は、エージェントの効率性を再定義します。コンパクトで高速、コスト効果の高いMoE Model(総パラメータ2300億、アクティブパラメータ100億)で、コーディングとエージェンティックなタスクにおいてエリートなパフォーマンスを実現しながら、強力な一般知能を保持しています。アクティブパラメータはわずか100億で、MiniMax-M2は洗練されたエンドツーエンドのツール使用性能を提供し、現代のトップモデルから期待されるものを、これまで以上に簡単に展開とスケーリングできるスマートなフォームファクターで実現します。...

Total Context:

197K

Max output:

131K

Input:

$

0.3

/ M Tokens

Output:

$

1.2

/ M Tokens

Qwen

chat

Qwen3-VL-32B-Instruct

リリース日:2025/10/21

Qwen3-VLは、Qwen3シリーズのVision-Languageモデルであり、さまざまなVision-Language(VL)ベンチマークで最先端(SOTA)のパフォーマンスを達成しています。このModelは、メガピクセルレベルまでの高解像度Image入力をサポートし、一般的な視覚理解、多言語OCR、細かな視覚的グラウンディング、視覚的対話における強力な機能を備えています。Qwen3シリーズの一部として、強力な言語基盤を継承しており、複雑な指示を理解し実行することができます。...

Total Context:

262K

Max output:

262K

Input:

$

0.2

/ M Tokens

Output:

$

0.6

/ M Tokens

Qwen

chat

Qwen3-VL-32B-Thinking

リリース日:2025/10/21

Qwen3-VL-Thinkingは、複雑な視覚的推論タスクのために特別に最適化されたQwen3-VLシリーズのバージョンです。これは"Thinking Mode"を取り入れており、最終的な答えを出す前に詳細な中間推論ステップ(Chain-of-Thought)を生成できます。この設計は、マルチステップの論理、計画、および詳細な分析を必要とする視覚質問応答(VQA)やその他のビジョン-言語タスクにおいて、モデルのパフォーマンスを大幅に向上させます。...

Total Context:

262K

Max output:

262K

Input:

$

0.2

/ M Tokens

Output:

$

1.5

/ M Tokens

Qwen

chat

Qwen3-VL-8B-Instruct

リリース日:2025/10/15

Qwen3-VL-8B-InstructはQwen3シリーズのVision-Imageモデルであり、一般的な視覚理解、視覚中心の対話、画像における多言語Text認識において強力な能力を示しています。...

Total Context:

262K

Max output:

262K

Input:

$

0.18

/ M Tokens

Output:

$

0.68

/ M Tokens

Qwen

chat

Qwen3-VL-8B-Thinking

リリース日:2025/10/15

Qwen3-VL-8B-ThinkingはQwen3シリーズのVision-言語Modelであり、複雑な推論が必要なシナリオに最適化されています。このThinkingモードでは、Modelは最終的な答えを提供する前に順を追って考え、推論を行います。...

Total Context:

262K

Max output:

262K

Input:

$

0.18

/ M Tokens

Output:

$

2.0

/ M Tokens

Qwen

chat

Qwen3-VL-235B-A22B-Instruct

リリース日:2025/10/04

Qwen3-VL-235B-A22B-Instructは235Bパラメータを持つ専門家の集合(MoE)Vision-language Modelで、22Bのアクティブパラメータがあります。これはQwen3-VL-235B-A22Bの指示調整されたバージョンで、Chatアプリケーションに合わせられています。...

Total Context:

262K

Max output:

262K

Input:

$

0.3

/ M Tokens

Output:

$

1.5

/ M Tokens

Qwen

chat

Qwen3-VL-235B-A22B-Thinking

リリース日:2025/10/04

Qwen3-VL-235B-A22B-Thinking は Qwen3-VL シリーズのモデルの一つで、最先端の結果を達成する推論強化版の Thinking エディションです。これは、多くのマルチモーダル推論ベンチマークで優れた成果を挙げており、STEM、数学、因果分析、論理的かつ証拠に基づいた回答に秀でています。全パラメータが235Bで、アクティブパラメータが22Bの合計パラメータを持つ、ミックスチャーオブエキスパート (MoE) アーキテクチャを備えています。...

Total Context:

262K

Max output:

262K

Input:

$

0.45

/ M Tokens

Output:

$

3.5

/ M Tokens

Qwen

chat

Qwen3-VL-30B-A3B-Instruct

リリース日:2025/10/05

Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...

Total Context:

262K

Max output:

262K

Input:

$

0.29

/ M Tokens

Output:

$

1.0

/ M Tokens

Qwen

chat

Qwen3-VL-30B-A3B-Thinking

リリース日:2025/10/11

Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...

Total Context:

262K

Max output:

262K

Input:

$

0.29

/ M Tokens

Output:

$

1.0

/ M Tokens

Moonshot AI

chat

Kimi-K2-Thinking

リリース日:2025/11/07

Kimi K2 Thinkingは最新かつ最も能力のあるオープンソースの思考モデルです。Kimi K2から始まり、段階的にツールを動的に利用する思考エージェントとして構築されました。人類最後の試験(HLE)、BrowseComp、その他のベンチマークで新たな最先端技術を設定し、複数ステップの推論深度を劇的に拡大し、200〜300の連続コールで安定したツール使用を維持します。同時に、K2 ThinkingはINT4量子化のネイティブModelで、262kコンテキストウィンドウを持ち、Inferenceの待ち時間とGPUメモリ使用量の損失のない削減を達成しています...

Total Context:

262K

Max output:

262K

Input:

$

0.55

/ M Tokens

Output:

$

2.5

/ M Tokens

Moonshot AI

chat

Kimi-K2-Instruct-0905

リリース日:2025/09/08

Kimi K2-Instruct-0905は、最先端のエキスパート集合(MoE)言語モデルであり、Kimi K2の最新で最も高度なバージョンです。主な特徴には、特にフロントエンドとツール呼び出しのためのコーディング機能の強化、コンテキスト長が256k tokensに拡張されたこと、さまざまなエージェントスカフォールドとの統合の改善が含まれています。...

Total Context:

262K

Max output:

262K

Input:

$

0.4

/ M Tokens

Output:

$

2.0

/ M Tokens

OpenAI

chat

gpt-oss-120b

リリース日:2025/08/13

gpt-ossシリーズは、強力な推論、エージェントタスク、および多目的な開発者ユースケース向けに設計されたOpenAIのオープンウェイトのモデルです。gpt-oss-120bは生産、汎用、高度な推論ユースケース向けで、単一の80GB GPU(例えばNVIDIA H100やAMD MI300X)に収まります。...

Total Context:

131K

Max output:

8K

Input:

$

0.05

/ M Tokens

Output:

$

0.45

/ M Tokens

OpenAI

chat

gpt-oss-20b

リリース日:2025/08/13

gpt-ossシリーズは、OpenAIの強力な推論、エージェンティックなタスク、および多目的な開発者のユースケースのために設計されたオープンウェイトモデルです。gpt-oss-20bは低遅延、ローカルまたは専門的なユースケース用です。...

Total Context:

131K

Max output:

8K

Input:

$

0.04

/ M Tokens

Output:

$

0.18

/ M Tokens

Z.ai

chat

GLM-4.6

リリース日:2025/10/04

GLM-4.5と比較して、GLM-4.6はいくつかの重要な改善をもたらします。200K tokensまで拡張された長いコンテキストウィンドウ、優れたコーディング性能、高度な推論、より能力の高いエージェント、そして洗練された執筆を含みます。...

Total Context:

205K

Max output:

205K

Input:

$

0.39

/ M Tokens

Output:

$

1.9

/ M Tokens

Z.ai

chat

GLM-4.5-Air

リリース日:2025/07/28

GLM-4.5シリーズのモデルは、インテリジェントエージェントのために設計されたファウンデーションモデルです。GLM-4.5-Airは、合計1060億のパラメーターと、120億のアクティブパラメーターを備えた、よりコンパクトな設計を採用しています。また、思考モードと非思考モードの両方を提供するハイブリッド推論モデルでもあります。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.86

/ M Tokens

Z.ai

chat

GLM-4.5V

リリース日:2025/08/13

モデルのGLM-Vファミリーの一部として、GLM-4.5VはZhipuAIの基盤モデルGLM-4.5-Airに基づいており、画像、ビデオ、文書理解、GUIエージェント操作などのタスクでSOTA性能を達成しています。...

Total Context:

66K

Max output:

66K

Input:

$

0.14

/ M Tokens

Output:

$

0.86

/ M Tokens

Qwen

image-to-video

Wan2.2-I2V-A14B

リリース日:2025/08/13

$

0.29

/ Video

Qwen

text-to-video

Wan2.2-T2V-A14B

リリース日:2025/08/13

$

0.29

/ Video

inclusionAI

chat

Ling-flash-2.0

リリース日:2025/09/18

Ling-flash-2.0 は inclusionAI の言語 Model で、合計 1,000 億パラメーターを持ち、そのうち 61 億は token ごとにアクティブ化されます(48 億は非 Embedding)。Ling 2.0 アーキテクチャシリーズの一部として、軽量でありながら強力な専門集団(MoE) Model として設計されています。40B レベルの密集 Model や他の大規模な MoE Model に匹敵する、またはそれを超える性能を提供することを目指していますが、アクティブなパラメーター数は大幅に少なくなっています。この Model は、極端なアーキテクチャのデザインとトレーニング手法を通じて高性能と効率を達成することに焦点を当てた戦略を表しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

inclusionAI

chat

Ling-mini-2.0

リリース日:2025/09/10

Ling-mini-2.0は、小型でありながら高性能な大規模言語Modelで、MoEアーキテクチャに基づいて構築されています。総パラメータは16Bですが、tokenごとにアクティブ化されるのはわずか1.4B(非Embedding 789M)であり、非常に高速な生成が可能です。効率的なMoE設計と大規模高品質なトレーニングデータのおかげで、1.4Bのアクティブ化パラメータしか持たないにもかかわらず、Ling-mini-2.0はサブ10Bの密集LLMやさらに大きなMoE Modelに匹敵するトップクラスの下流タスクパフォーマンスを提供します。...

Total Context:

131K

Max output:

131K

Input:

$

0.07

/ M Tokens

Output:

$

0.28

/ M Tokens

inclusionAI

chat

Ring-flash-2.0

リリース日:2025/09/29

Ring-flash-2.0は、Ling-flash-2.0-baseに基づいて深く最適化された高性能思考モデルです。これは、合計100Bのパラメータを持つ専門家混合(MoE)Modelですが、Inferenceごとに起動するのはわずか6.1Bです。このModelは、強化学習(RL)におけるMoE LLMsのトレーニング不安定性の課題に対処するために独自に開発された「icepop」アルゴリズムを活用しており、拡張されたRLトレーニングサイクル全体でその複雑な推論能力を継続的に向上させます。Ring-flash-2.0は、数学コンペティション、コード生成、論理的推論を含む挑戦的なベンチマークで大幅な突破を示しています。その性能は、40Bパラメータ未満のSOTA密集モデルを凌ぎ、より大きなオープンウェイトのMoE Modelやクローズドソースの高性能思考Model APIに匹敵します。より驚くべきことに、Ring-flash-2.0は主に複雑な推論のために設計されていますが、創造的なライティングにも強い能力を示します。その効率的なアーキテクチャのおかげで、高速Inferenceを達成し、高並列シナリオでの思考ModelのInferenceコストを大幅に削減します。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Tencent

chat

Hunyuan-MT-7B

リリース日:2025/09/18

Hunyuan翻訳モデルは、翻訳モデルHunyuan-MT-7Bと統合モデルHunyuan-MT-Chimeraで構成されています。Hunyuan-MT-7Bは、7億パラメータを持つ軽量な翻訳モデルであり、ソースTextをターゲット言語に翻訳するために使用されます。モデルは、中国の5つの少数民族言語を含む33言語間の相互翻訳をサポートしています。WMT25機械翻訳コンペティションでは、Hunyuan-MT-7Bが参加した31の言語カテゴリーのうち30で1位を獲得し、その優れた翻訳能力を示しました。翻訳タスクにおいて、Tencent Hunyuanは、事前トレーニング、教師ありFine-tuning、翻訳強化、統合改善をカバーする包括的なトレーニングフレームワークを提案し、同規模の他のModelの中で最先端のパフォーマンスを達成しました。このModelは計算効率が高く、さまざまなアプリケーションシナリオに適しています。...

Total Context:

33K

Max output:

33K

Input:

$

0.0

/ M Tokens

Output:

$

0.0

/ M Tokens

Qwen

chat

Qwen3-Next-80B-A3B-Instruct

リリース日:2025/09/18

Qwen3-Next-80B-A3B-Instructは、AlibabaのQwenチームによってリリースされた次世代のファウンデーションModelです。新しいQwen3-Nextアーキテクチャに基づいて構築されており、究極のトレーニングとInferenceの効率性を追求しています。このModelには、ハイブリッド・アテンション・メカニズム(ゲーティッド・デルタネットとゲーティッド・アテンション)、高スパース性のMixture-of-Experts(MoE)構造、およびさまざまな安定性の最適化などの革新的な機能が組み込まれています。80億パラメータのスパースModelとして、Inference中に1tokenあたり約30億のパラメータのみがアクティブ化され、計算コストを大幅に削減し、32K tokensを超える長いコンテキストタスクのためにQwen3-32B Modelと比べて10倍以上のスループットを提供します。これは汎用タスク向けに最適化された指示調整版であり、「思考モード」はサポートしていません。パフォーマンス面では、いくつかのベンチマークでQwenのフラッグシップModelであるQwen3-235Bに匹敵し、超長コンテキストシナリオで顕著な利点を示しています。...

Total Context:

262K

Max output:

262K

Input:

$

0.14

/ M Tokens

Output:

$

1.4

/ M Tokens

Qwen

chat

Qwen3-Next-80B-A3B-Thinking

リリース日:2025/09/25

Qwen3-Next-80B-A3B-Thinkingは、AlibabaのQwenチームによって開発された、次世代の基礎モデルです。このモデルは、複雑な推論タスク向けに特別に設計されています。Qwen3-Nextアーキテクチャに基づいて構築されており、ハイブリッド・アテンション・メカニズム(Gated DeltaNetとGated Attention)と高スパース性のMixture-of-Experts(MoE)構造を組み合わせて、究極のトレーニングとInference効率を実現します。80億パラメータのスパースなModelとして、Inference中に約30億のパラメータのみを活性化することで、計算コストを大幅に削減し、32K tokenを超える長いコンテキストタスクにおいて、Qwen3-32B Modelよりも10倍以上のスループットを提供します。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、エージェンティックプランニングのような要求の厳しいマルチステップの問題に最適化されており、デフォルトで構造化された「考え中」のトレースをOutputします。性能面では、より高価なモデルであるQwen3-32B-Thinkingを上回り、複数のベンチマークでGemini-2.5-Flash-Thinkingの実績を上回っています。...

Total Context:

262K

Max output:

262K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Qwen

chat

Qwen3-Omni-30B-A3B-Captioner

リリース日:2025/10/04

Qwen3-Omni-30B-A3B-Captionerは、AlibabaのQwenチームからのVision-Language Model (VLM)で、Qwen3シリーズの一部です。これは、高品質で詳細かつ正確なImageキャプションを生成するために特別に設計されています。30Bの総パラメータエキスパートの組み合わせ(MoE)アーキテクチャに基づいており、ModelはImageの内容を深く理解し、それを豊かで自然な言語Textに翻訳することができます。...

Total Context:

66K

Max output:

66K

Input:

$

0.1

/ M Tokens

Output:

$

0.4

/ M Tokens

Qwen

chat

Qwen3-Omni-30B-A3B-Instruct

リリース日:2025/10/04

Qwen3-Omni-30B-A3B-Instructは、AlibabaのQwenチームの最新のQwen3シリーズのメンバーです。それは30億の総パラメータと3億のアクティブパラメータを持つ専門家のミックス (MoE) Modelであり、強力なパフォーマンスを維持しつつInferenceコストを効果的に削減します。このModelは、高品質で多元的かつ多言語のデータでトレーニングされており、多言語対話のような基本的な能力だけでなく、コードや数学においても優れた性能を発揮しています。...

Total Context:

66K

Max output:

66K

Input:

$

0.1

/ M Tokens

Output:

$

0.4

/ M Tokens

Qwen

chat

Qwen3-Omni-30B-A3B-Thinking

リリース日:2025/10/04

Qwen3-Omni-30B-A3B-Thinkingは、Qwen3-Omni omni-modal Modelの「Thinker-Talker」アーキテクチャ内のコア「Thinker」コンポーネントです。それは、Text、Audio、Images、そしてVideoを含むMultimodal Inputを処理して、複雑な思考の連鎖を実行するように具体的に設計されています。このModelはシステムの推論脳として、すべてのInputを理解と分析のための共通の表象空間に統一しますが、そのOutputはTextのみです。この設計により、画像で提示された数学的問題のような深い思考とクロスモーダルな理解を必要とする複雑な問題を解決する際に優れた能力を発揮し、Qwen3-Omniアーキテクチャ全体の強力な認知能力の鍵となっています。...

Total Context:

66K

Max output:

66K

Input:

$

0.1

/ M Tokens

Output:

$

0.4

/ M Tokens

Qwen

text-to-image

Qwen-Image

リリース日:2025/09/15

$

0.02

/ Image

Qwen

image-to-image

Qwen-Image-Edit

リリース日:2025/09/18

$

0.04

/ Image

Qwen

chat

Qwen3-Coder-480B-A35B-Instruct

リリース日:2025/07/31

Qwen3-Coder-480B-A35B-Instructは、Alibabaによってこれまでにリリースされた中で最もエージェンティックなコードModelです。それは4800億の総パラメータと350億の活性化パラメータを持つエキスパートのミクスチャー (MoE) Modelであり、効率とパフォーマンスのバランスを取っています。このModelは256K(約262,144)tokenのコンテキスト長をネイティブにサポートし、YaRNのような外挿法を用いることで100万tokenまで拡張可能で、リポジトリ規模のコードベースや複雑なプログラミングタスクを処理することができます。Qwen3-Coderは、エージェンティックコーディングワークフローのために特別に設計されており、コードを生成するだけでなく、開発者ツールや環境と自律的に対話して複雑な問題を解決します。最先端のオープンModelの中でコーディングとエージェンティックなベンチマークで最先端の結果を達成しており、Claude Sonnet 4のような先進的なModelに匹敵するパフォーマンスを持っています。このModelと共に、Alibabaはその強力なエージェンティックコーディング能力を完全に発揮するために設計されたコマンドラインツールであるQwen Codeもオープンソース化しました。...

Total Context:

262K

Max output:

262K

Input:

$

0.25

/ M Tokens

Output:

$

1.0

/ M Tokens

Qwen

chat

Qwen3-Coder-30B-A3B-Instruct

リリース日:2025/08/01

Qwen3-Coder-30B-A3B-Instructは、AlibabaのQwenチームによって開発されたQwen3シリーズのコードModelです。洗練され最適化されたModelとして、強化されたコーディング機能に焦点を当てつつ、印象的なパフォーマンスと効率を維持しています。Agentic Coding、Agentic Browser-Use、その他の基礎的なコーディングタスクのような複雑なタスクにおいて、オープンソースのModel間で顕著なパフォーマンスの優位性を示しています。このModelは、256K tokenという長いコンテキストをネイティブにサポートしており、1M tokenまで拡張可能で、リポジトリ規模の理解と処理をより良くします。さらに、Qwen CodeやCLINEのようなプラットフォームのための強力なエージェンティックコーディングのサポートを提供し、特別に設計された関数呼び出しフォーマットを備えています。...

Total Context:

262K

Max output:

262K

Input:

$

0.07

/ M Tokens

Output:

$

0.28

/ M Tokens

Qwen

chat

Qwen3-30B-A3B-Instruct-2507

リリース日:2025/07/30

Qwen3-30B-A3B-Instruct-2507はQwen3-30B-A3B無考モードの更新版です。それは30.5億の総パラメータと3.3億の活性化パラメータを持つエキスパートの組合せ(MoE)モデルです。このバージョンは、指示の遵守、論理的推論、Text理解、数学、科学、コーディング、ツールの使用などの一般的な能力の顕著な改善を含む重要な強化を特徴としています。また、多言語にわたる長い知識のカバー率における大幅な向上を示し、主観的でオープンエンドなタスクにおいてユーザーの好みとの整合性が著しく向上し、より役立つ応答と高品質なText生成を可能にします。さらに、256Kまでの長いコンテキスト理解能力が強化されました。このModelは無考モードのみをサポートし、Outputに`<think></think>`ブロックを生成しません。...

Total Context:

262K

Max output:

262K

Input:

$

0.09

/ M Tokens

Output:

$

0.3

/ M Tokens

Qwen

chat

Qwen3-30B-A3B-Thinking-2507

リリース日:2025/07/31

Qwen3-30B-A3B-Thinking-2507は、アリババのQwenチームによってリリースされたQwen3シリーズの最新のシンキングModelです。30.5億の総パラメータと3.3億のアクティブパラメータを持つ専門家の集合(MoE)Modelであり、複雑なタスクへの能力向上に注力しています。Modelは、論理的推論、数学、科学、コーディング、通常は人間の専門知識を必要とする学術ベンチマークなどの推論タスクで顕著に改善されたパフォーマンスを示しています。また、指示のフォロー、ツールの使用、Text生成、人間の好みに一致する能力など、一般的な能力も大幅に向上しています。Modelは256Kの長文脈理解能力をネイティブにサポートしており、最大100万tokenまで拡張可能です。このバージョンは、段階的な推論を通じて非常に複雑な問題に取り組むために「シンキングモード」に特化して設計されており、代理行動能力にも優れています。...

Total Context:

262K

Max output:

131K

Input:

$

0.09

/ M Tokens

Output:

$

0.3

/ M Tokens

Qwen

chat

Qwen3-235B-A22B-Instruct-2507

リリース日:2025/07/23

Qwen3-235B-A22B-Instruct-2507は、Alibaba CloudのQwenチームによって開発されたQwen3シリーズのフラッグシップMixture-of-Experts(MoE)大規模言語モデルです。このモデルは、合計2350億のパラメータを持ち、各フォワードパスで22億が活性化されます。Qwen3-235B-A22B非思考モードの更新版としてリリースされ、指示のフォロー、論理的な推論、テキスト理解、数学、科学、コーディング、およびツールの使用などの一般的な機能において重要な強化を備えています。さらに、このモデルは複数の言語にわたる長尾の知識カバレッジにおいて大幅な向上を示し、主観的でオープンエンドのタスクにおいてユーザーの好みにより良く合致するようになり、より役立つ応答と高品質なテキスト生成を可能にします。特に、256K (262,144 tokens) の広範なコンテキストウィンドウをネイティブにサポートし、長文コンテキストの理解能力を向上させます。このバージョンは非思考モードに専念し、<think>ブロックを生成せず、直接的なQ&Aや知識検索のようなタスクにおいてより効率的で正確な応答を提供することを目指しています。...

Total Context:

262K

Max output:

262K

Input:

$

0.09

/ M Tokens

Output:

$

0.6

/ M Tokens

Qwen

chat

Qwen3-235B-A22B-Thinking-2507

リリース日:2025/07/28

Qwen3-235B-A22B-Thinking-2507は、アリババのQwenチームによって開発されたQwen3の大規模言語モデルシリーズのメンバーで、非常に複雑な推論タスクを専門としています。このModelは、Mixture-of-Experts (MoE)アーキテクチャに基づいており、合計2350億のパラメータと、tokenあたり約220億のアクティブパラメータを持ち、計算効率を高めながら強力なパフォーマンスを維持しています。専用の「thinking」Modelとして、人間の専門知識を必要とする課題(論理的推論、数学、科学、コーディング、学術ベンチマークなど)において、オープンソースのthinkingモデルの中で最先端の結果を達成しています。さらに、このModelは、指示の追従、ツールの使用、Text生成といった一般的な能力が強化されており、256Kのロングコンテキスト理解能力をネイティブにサポートし、深い推論や長文の処理を必要とするシナリオに理想的です。...

Total Context:

262K

Max output:

262K

Input:

$

0.13

/ M Tokens

Output:

$

0.6

/ M Tokens

StepFun

chat

step3

リリース日:2025/08/06

ステップ3は、StepFunの最先端のマルチモーダル推論Modelです。これは、321Bの総パラメータと38Bのアクティブパラメータを持つMixture-of-Experts (MoE) アーキテクチャ上に構築されています。このModelは、Vision-Language推論においてトップクラスのパフォーマンスを提供しながらデコードコストを最小限に抑えるために、エンドツーエンドで設計されています。Multi-Matrix Factorization Attention (MFA) と Attention-FFN Disaggregation (AFD) の共同設計により、ステップ3はフラグシップおよび低エンドのアクセラレータの両方において卓越した効率を維持しています。プレトレーニング中に、ステップ3は20TのText tokenと4TのImage-Text混合tokenを処理し、10以上の言語にまたがりました。このModelは、オープンソースModelとして、数学、コード、マルチモダリティを含む様々なベンチマークにおいて最先端のパフォーマンスを達成しました。...

Total Context:

66K

Max output:

66K

Input:

$

0.57

/ M Tokens

Output:

$

1.42

/ M Tokens

ByteDance

chat

Seed-OSS-36B-Instruct

リリース日:2025/09/04

Seed-OSSは、ByteDance Seedチームによって開発されたオープンソースの大規模言語Modelのシリーズであり、強力な長文コンテキスト処理、推論、エージェント機能、および汎用能力のために設計されています。このシリーズ内では、Seed-OSS-36B-Instructは、36億のパラメータを持つ命令調整済みModelであり、ネイティブに超長文コンテキスト長をサポートし、巨大な文書や複雑なコードベースを単一のパスで処理することができます。このModelは、推論、コード生成、およびエージェントタスク(ツールの使用など)のために特別に最適化されつつ、バランスの取れた優れた汎用能力を維持しています。このModelの重要な特徴は、「Thinking Budget」機能であり、ユーザーが必要に応じて推論の長さを柔軟に調整できるようにし、実際のアプリケーションでのInference効率を効果的に向上させます。...

Total Context:

262K

Max output:

262K

Input:

$

0.21

/ M Tokens

Output:

$

0.57

/ M Tokens

Z.ai

chat

GLM-4.1V-9B-Thinking

リリース日:2025/07/04

GLM-4.1V-9B-Thinkingは、Zhipu AIと清華大学のKEG研究所が共同で発表したオープンソースのVision-Language Model(VLM)であり、一般目的のマルチモーダルな推論を進化させるよう設計されています。GLM-4-9B-0414の基礎モデルを基に構築されたこのモデルは、「思考のパラダイム」を導入し、カリキュラムサンプリングを用いた強化学習(RLCS)を活用して、複雑なタスクにおける能力を大幅に向上させています。9Bパラメータモデルとして、同等のサイズのモデルの中で最先端のパフォーマンスを達成し、18の異なるベンチマークで、はるかに大きな72BパラメータのQwen-2.5-VL-72Bと比較して同等かそれ以上の性能を発揮します。このモデルは、STEMの問題解決、Videoの理解、長文の理解を含む多様なタスクに優れ、最大4Kの解像度と任意のアスペクト比のImageを処理できます。...

Total Context:

66K

Max output:

66K

Input:

$

0.035

/ M Tokens

Output:

$

0.14

/ M Tokens

BAIDU

chat

ERNIE-4.5-300B-A47B

リリース日:2025/07/02

ERNIE-4.5-300B-A47Bは、Baiduによって開発された大規模言語Modelであり、Mixture-of-Experts (MoE)アーキテクチャに基づいています。このModelは合計3000億のパラメータを持っていますが、tokenごとのInferenceでは470億のパラメータのみを活性化し、強力なパフォーマンスと計算効率を両立させています。ERNIE 4.5シリーズのコアModelの一つとして、PaddlePaddle深層学習フレームワーク上でトレーニングされ、Text理解、生成、推論、コーディングなどのタスクで優れた能力を示しています。このModelは革新的なMultimodal異種MoE事前トレーニング手法を利用しており、Textと視覚モダリティの共同トレーニングを通じてその全体的な能力を効果的に向上させ、指示に従うことや世界の知識記憶において顕著な結果を示しています。BaiduはAI技術の研究と応用を促進するために、このModelを含むシリーズの他のモデルをオープンソース化しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.28

/ M Tokens

Output:

$

1.1

/ M Tokens

Tencent

chat

Hunyuan-A13B-Instruct

リリース日:2025/06/30

Hunyuan-A13B-Instructは、その80 Bのパラメーターのうち13 Bのみをアクティブにしますが、主流のベンチマークでより大きなLLMに匹敵します。ハイブリッド推論を提供し、低遅延の「高速」モードまたは高Precisionの「低速」モードを各呼び出しごとに切り替えることができます。ネイティブの256 K-tokenコンテキストにより、劣化せずに本のような長さのドキュメントを処理できます。エージェントスキルはBFCL-v3、τ-Bench、C3-Benchのリーダーシップに合わせて調整されており、優れた自律型アシスタントのバックボーンとなっています。グループ化されたQuery Attentionと多形式の量子化により、メモリ効率の良い、GPUに優しいInferenceを実現し、実際の展開での使用に備えています。企業向けアプリケーションのためのマルチリンガルサポートと強固な安全性調整を備えています。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Moonshot AI

chat

Kimi-K2-Instruct

リリース日:2025/07/13

Kimi K2は、Mixture-of-Experts (MoE)ファウンデーションModelで、コードおよびエージェント機能に優れ、総計1兆のパラメーターと320億のアクティブなパラメーターを特徴としています。一般的な知識推論、プログラミング、数学、およびエージェント関連のタスクをカバーするベンチマーク評価において、K2モデルは他の主要なオープンソースモデルを凌駕します。...

Total Context:

131K

Max output:

131K

Input:

$

0.58

/ M Tokens

Output:

$

2.29

/ M Tokens

Moonshot AI

chat

Kimi-Dev-72B

リリース日:2025/06/19

Kimi-Dev-72Bは、オープンソースのコーディング用大規模言語Modelで、SWE-bench Verifiedで60.4%を達成し、オープンソースModelの中で最先端の結果を設定しています。大規模な強化学習を通じて最適化され、Docker内の実際のコードベースを自律的に修正し、完全なテストスイートが合格したときのみ報酬を得ます。これにより、Modelが実際のソフトウェア工学の基準に沿った正確で堅牢かつ実用的なソリューションを提供することが保証されます。...

Total Context:

131K

Max output:

131K

Input:

$

0.29

/ M Tokens

Output:

$

1.15

/ M Tokens

MiniMaxAI

chat

MiniMax-M1-80k

リリース日:2025/06/17

MiniMax-M1は、456 Bパラメータとトークンあたり45.9 Bがアクティブなオープンウェイトの大規模ハイブリッドアテンション推論モデルです。これはネイティブに1 M-tokenコンテキストをサポートし、ライトニングアテンションによりDeepSeek R1で100 K tokenの際に75%のFLOPsを節約し、MoEアーキテクチャを活用しています。CISPOとハイブリッド設計による効率的なRLトレーニングにより、長いInput推論および現実世界のソフトウェアエンジニアリングタスクで最先端のパフォーマンスを実現します。...

Total Context:

131K

Max output:

131K

Input:

$

0.55

/ M Tokens

Output:

$

2.2

/ M Tokens

Qwen

chat

Qwen3-30B-A3B

リリース日:2025/04/30

Qwen3-30B-A3BはQwenシリーズの最新の大規模言語Modelであり、30.5Bの総パラメータと3.3Bの活性化パラメータを持つMixture-of-Experts (MoE)アーキテクチャを特徴としています。このModelは、思考モード(複雑な論理的推論、数学、コーディング用)と非思考モード(効率的で汎用的な対話用)のシームレスな切り替えを独自にサポートします。創造的な文章、ロールプレイング、および複数ターンの対話において、人間の好みの整合性を著しく向上させた推論能力を示します。このModelは、外部ツールとの正確な統合におけるエージェント能力で優れ、多言語指示に強く、100以上の言語と方言をサポートした翻訳能力を持っています。...

Total Context:

131K

Max output:

131K

Input:

$

0.09

/ M Tokens

Output:

$

0.45

/ M Tokens

Qwen

chat

Qwen3-32B

リリース日:2025/04/30

Qwen3-32Bは、Qwenシリーズの最新の大規模言語モデルで、32.8Bのパラメーターを備えています。このモデルは、シームレスな切り替えを特長とし、複雑な論理的推論、数学、コーディングに対応する考えるモードと、効率的で汎用的な対話を行う非考えるモードを切り替えます。これは、数理、コード生成、常識的な論理推論において、以前のQwQやQwen2.5指示モデルを超える大幅に強化された推論能力を示しています。そのため、創造的な文章作成、ロールプレイング、マルチターンの対話において人間の好みとの整合性に優れています。さらに、強力な多言語の指示追従と翻訳能力を備え、100以上の言語と方言に対応しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Qwen

chat

Qwen3-14B

リリース日:2025/04/30

Qwen3-14Bは、Qwenシリーズの最新の大型言語Modelで、14.8Bのパラメーターを持っています。このModelは、複雑な論理的推論、数学、コーディングの場合は思考モード、効率的で汎用的な対話のためには非思考モードの間でシームレスに切り替えることを独自にサポートします。それは数学、コード生成、常識的な論理推論において以前のQwQおよびQwen2.5指示Modelsを超える、著しく強化された推論能力を示しています。このModelは、創造的な執筆、ロールプレイ、マルチターン対話のための人間の好みの調整においても優れています。さらに、100以上の言語と方言を強力な多言語指示と翻訳能力でサポートします。...

Total Context:

131K

Max output:

131K

Input:

$

0.07

/ M Tokens

Output:

$

0.28

/ M Tokens

Qwen

chat

Qwen3-8B

リリース日:2025/04/30

Qwen3-8BはQwenシリーズの最新の大規模言語モデルで、8.2Bのパラメータを持っています。このModelは、複雑な論理的推論、数学、コーディングに適した思考モードと、効率的な汎用対話に適した非思考モードの間でシームレスに切り替えることができるユニークな機能を持っています。それは、前のQwQやQwen2.5の指示モデルを超えた数学、コード生成、および常識的論理推論において、顕著に強化された推論能力を示しています。このModelは、創作、役割演技、マルチターン対話における人間の好みの調整に優れています。さらに、強力な多言語指示追従および翻訳能力を持ち、100以上の言語と方言をサポートしています...

Total Context:

131K

Max output:

131K

Input:

$

0.06

/ M Tokens

Output:

$

0.06

/ M Tokens

Qwen

reranker

Qwen3-Reranker-8B

リリース日:2025/06/06

Qwen3-Reranker-8Bは、Qwen3シリーズからの80億パラメータのText再ランク付けModelです。クエリへの関連性に基づいてドキュメントを正確に再順序付けすることによって、検索結果の品質を改善し、改善するように設計されています。強力なQwen3基盤モデルをベースに構築されており、32kのコンテキスト長で長いTextを理解し、100以上の言語をサポートします。Qwen3-Reranker-8B Modelは、さまざまなTextおよびコード検索シナリオで最先端のパフォーマンスを提供する柔軟なシリーズの一部です。...

$

0.04

/ M Tokens

Qwen

embedding

Qwen3-Embedding-8B

リリース日:2025/06/06

Qwen3-Embedding-8Bは、Qwen3 Embeddingシリーズの最新のプロプライエタリModelであり、特にText Embeddingおよびランキングタスク用に設計されています。この8BパラメータModelは、Qwen3シリーズの密な基盤Modelの上に構築されており、最大32Kのコンテキスト長をサポートし、最大4096の次元でEmbeddingを生成できます。このModelは、100を超える言語をサポートする優れた多言語機能を継承しており、長文理解と推論スキルを備えています。2025年6月5日時点ではMTEB多言語リーダーボードで第1位(スコア70.58)にランクされ、テキスト検索、コード検索、Text分類、クラスタリング、bitextマイニングなど、さまざまなタスクで最先端のパフォーマンスを示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクター次元(32から4096)と指示に応じた機能を提供します。...

Input:

$

0.04

/ M Tokens

Qwen

reranker

Qwen3-Reranker-4B

リリース日:2025/06/06

Qwen3-Reranker-4Bは、Qwen3シリーズの強力なテキストリランキングモデルであり、40億パラメータを備えています。これは、クエリに基づいてドキュメントの初期リストを再編成することで、検索結果の関連性を大幅に向上させるように設計されています。このモデルは、Qwen3の基盤のコアの強みを継承しており、32kのコンテキスト長までの長いテキストの優れた理解力や100以上の言語にわたる強力な能力を含んでいます。ベンチマークによると、Qwen3-Reranker-4Bモデルは、さまざまなテキストとコードの取得評価において優れたパフォーマンスを示しています。...

$

0.02

/ M Tokens

Qwen

embedding

Qwen3-Embedding-4B

リリース日:2025/06/06

Qwen3-Embedding-4Bは、Qwen3 Embeddingシリーズ最新の独自Modelで、特にText Embeddingおよびランキングタスク用に設計されています。この4BパラメータModelは、Qwen3シリーズの密集した基礎Modelを基にしており、最大32Kのコンテキスト長をサポートし、最大2560の次元でEmbeddingを生成できます。このModelは、100を超える言語に対応した卓越した多言語機能を継承しており、長文理解と推論スキルを備えています。それは、MTEB多言語リーダーボードで優れた業績(スコア69.45)を達成し、テキスト検索、コード検索、Text分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクトル次元(32から2560)と命令対応機能を提供し、効率性と効果性の間で最適なバランスを提供します。...

Input:

$

0.02

/ M Tokens

Qwen

reranker

Qwen3-Reranker-0.6B

リリース日:2025/06/06

Qwen3-Reranker-0.6BはQwen3シリーズからのText再ランキングModelです。これは特定のクエリに対する関連性に基づいてドキュメントを再注文することにより、初期取得システムの結果を洗練するために特別に設計されています。0.6Bパラメータと32kのコンテキスト長を持つこのModelは、Qwen3の基盤の強力な多言語(100以上の言語をサポート)、長文理解、および推論能力を活用しています。評価結果は、Qwen3-Reranker-0.6BがMTEB-R、CMTEB-R、およびMLDRを含む様々なText取得ベンチマークで強力なパフォーマンスを達成することを示しています。...

$

0.01

/ M Tokens

Qwen

embedding

Qwen3-Embedding-0.6B

リリース日:2025/06/06

Qwen3-Embedding-0.6Bは、Qwen3 Embeddingシリーズ内の最新の独自モデルであり、特にテキストEmbeddingおよびランキングタスク用に設計されています。Qwen3シリーズの密集した基盤モデルの上に構築されたこの0.6Bパラメータモデルは、32Kまでのコンテキスト長をサポートし、最大1024の次元でEmbeddingを生成できます。このModelは、100以上の言語をサポートする優れた多言語機能を引き継ぎ、長文理解と推論能力を備えています。MTEB多言語リーダーボードで強力なパフォーマンスを発揮し(スコア64.33)、テキスト検索、コード検索、テキスト分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、柔軟なベクトル次元(32から1024)と特定のタスクおよびシナリオでのパフォーマンス向上のための指示対応能力を提供し、効率と効果の両方を優先するアプリケーションにとって理想的な選択肢となります。...

Input:

$

0.01

/ M Tokens

Black Forest Labs

text-to-image

FLUX.1 Kontext [pro]

リリース日:2025/07/11

$

0.04

/ Image

Black Forest Labs

text-to-image

FLUX.1 Kontext [max]

リリース日:2025/07/11

$

0.08

/ Image

Black Forest Labs

text-to-image

FLUX 1.1 [pro] Ultra

リリース日:2025/07/11

$

0.06

/ Image

Black Forest Labs

text-to-image

FLUX 1.1 [pro]

リリース日:2025/07/11

$

0.04

/ Image

Black Forest Labs

image-to-image

FLUX.1-Kontext-dev

リリース日:2025/06/27

$

0.015

/ Image

Z.ai

chat

GLM-Z1-32B-0414

リリース日:2025/04/18

GLM-Z1-32B-0414は、深い思考能力を持つ推論Modelです。このModelは、コールドスタートと拡張された強化学習を通じてGLM-4-32B-0414をベースに開発され、数学、コード、論理を含むタスクに対するさらなるトレーニングが行われました。ベースModelと比較して、GLM-Z1-32B-0414は数学的能力と複雑なタスクを解決する能力を大幅に向上させています。トレーニングプロセス中に、チームはペアワイズランキングフィードバックに基づいた一般的な強化学習も導入し、Modelの一般的な能力をさらに強化しました。32Bのパラメータしか持っていないにもかかわらず、一部のタスクでは671Bパラメータを持つDeepSeek-R1に匹敵する性能を示します。AIME 24/25、LiveCodeBench、GPQAのベンチマークでの評価を通じて、このModelは強力な数学的推論能力を示し、より広範な複雑なタスクに対するソリューションをサポートできます。...

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Z.ai

chat

GLM-4-32B-0414

リリース日:2025/04/18

GLM-4-32B-0414はGLMファミリーの新世代のModelであり、320億のパラメータを持っています。その性能は、OpenAIのGPTシリーズやDeepSeekのV3/R1シリーズに匹敵し、非常にユーザーフレンドリーなローカルデプロイメント機能をサポートしています。GLM-4-32B-Base-0414は、高品質なデータの15Tを含む、大量の推論型合成データを事前に学習し、以降の強化学習拡張の基礎を築いています。ポストトレーニング段階では、ダイアログシナリオ向けの人間の好みに合わせた調整に加え、拒否サンプリングや強化学習などの技術を用いて、命令のフォロー、エンジニアリングコード、関数呼び出しにおけるModelの性能を強化し、エージェントタスクに必要な原子能力を強化しました。GLM-4-32B-0414は、エンジニアリングコード、アーティファクト生成、関数呼び出し、検索ベースのQ&A、レポート生成などの分野で良好な結果を達成しています。いくつかのベンチマークでは、その性能はGPT-4oやDeepSeek-V3-0324(671B)といったより大きなModelのそれに匹敵するか、それを超えることもあります。...

Total Context:

33K

Max output:

33K

Input:

$

0.27

/ M Tokens

Output:

$

0.27

/ M Tokens

Z.ai

chat

GLM-Z1-9B-0414

リリース日:2025/04/18

GLM-Z1-9B-0414は、GLMシリーズの小型のModelで、わずか90億のパラメータでオープンソースの伝統を維持しながらも驚くべき能力を持っています。規模が小さいにもかかわらず、GLM-Z1-9B-0414は数学的推論および一般的なタスクにおいて優れたパフォーマンスを示します。その全体的なパフォーマンスは、同サイズのオープンソースModelの中で既にトップレベルです。研究チームは、より大きなModelと同じシリーズの技術を用いてこの9B Modelをトレーニングしました。特にリソースが制限されたシナリオでは、このModelは効率と効果の間で優れたバランスを達成し、軽量な展開を求めるユーザーに強力なオプションを提供します。このModelは深い思考能力を備えており、YaRNテクノロジーを通じて長いコンテキストを処理できるため、計算資源が限られた状態で数学的推論能力を必要とするアプリケーションに特に適しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.086

/ M Tokens

Output:

$

0.086

/ M Tokens

Z.ai

chat

GLM-4-9B-0414

リリース日:2025/04/18

GLM-4-9B-0414は、9億のパラメータを持つGLMシリーズの小型モデルです。このModelは、GLM-4-32Bシリーズの技術的特徴を受け継いでおり、より軽量な展開オプションを提供しています。規模が小さいにもかかわらず、GLM-4-9B-0414はコード生成、ウェブデザイン、SVGグラフィックス生成、検索ベースの執筆タスクにおいて優れた能力を示しています。このModelは外部ツールを呼び出してその能力を拡張する機能呼び出し機能もサポートしています。このModelはリソース制約のあるシナリオで効率と効果のバランスが良く、限られた計算資源下でAIモデルを展開する必要があるユーザーにとって強力な選択肢を提供します。同じシリーズの他のModelのように、GLM-4-9B-0414も様々なベンチマークテストで競争力のあるパフォーマンスを示しています。...

Total Context:

33K

Max output:

33K

Input:

$

0.086

/ M Tokens

Output:

$

0.086

/ M Tokens

Qwen

chat

Qwen2.5-VL-32B-Instruct

リリース日:2025/03/24

Qwen2.5-VL-32B-Instructは、QwenチームによってリリースされたMultimodal大型言語Modelで、Qwen2.5-VLシリーズの一部です。このModelは一般的なオブジェクトを認識するだけでなく、Images内のText、チャート、アイコン、グラフィック、レイアウトを分析する能力に優れています。視覚エージェントとして、論理的に推論し、コンピュータや携帯電話を使用するためのツールを動的に指示することができます。さらに、このModelはImages内のオブジェクトを正確にローカライズし、請求書やテーブルなどのデータに対して構造化されたOutputsを生成することが可能です。前任のQwen2-VLと比較して、このバージョンは強化学習による数学的および問題解決能力が向上しており、応答のスタイルが人間の嗜好により良く合うように調整されています。...

Total Context:

131K

Max output:

131K

Input:

$

0.27

/ M Tokens

Output:

$

0.27

/ M Tokens

Qwen

chat

QwQ-32B

リリース日:2025/03/06

QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。...

Total Context:

131K

Max output:

131K

Input:

$

0.15

/ M Tokens

Output:

$

0.58

/ M Tokens

Qwen

chat

Qwen2.5-VL-72B-Instruct

リリース日:2025/01/28

Qwen2.5-VLはQwen2.5シリーズのビジョン-言語モデルであり、いくつかの側面で大きな向上を示しています。それは共通のオブジェクトを認識しながらテキスト、チャート、およびレイアウトを分析する強力な視覚理解能力を備えており、推論し、動的にツールを指示できる視覚エージェントとして機能します。また、1時間以上のビデオを理解し、重要なイベントをキャプチャすることができます。さらに、画像の中のオブジェクトを正確に特定し、バウンディングボックスやポイントを生成して局在化します。請求書やフォームのようなスキャンデータのための構造化された出力をサポートしており、Image、Video、およびエージェントタスクを含むさまざまなベンチマークで優れたパフォーマンスを示します。...

Total Context:

131K

Max output:

4K

Input:

$

0.59

/ M Tokens

Output:

$

0.59

/ M Tokens

Qwen

chat

Qwen2.5-VL-7B-Instruct

リリース日:2025/01/28

Qwen2.5-VLはQwenシリーズの新しいメンバーであり、強力な視覚理解能力を備えています。画像内のText、チャート、レイアウトを分析し、長いVideoを理解してイベントをキャプチャすることができます。推論、ツールの操作、マルチフォーマットオブジェクトの位置特定、構造化されたOutputの生成が可能です。ModelはVideo理解における動的解像度とフレームレートトレーニングに向けて最適化されており、視覚エンコーダーの効率が向上しました。...

Total Context:

33K

Max output:

4K

Input:

$

0.05

/ M Tokens

Output:

$

0.05

/ M Tokens

DeepSeek

chat

DeepSeek-R1-Distill-Qwen-32B

リリース日:2025/01/20

DeepSeek-R1-Distill-Qwen-32BはQwen2.5-32Bに基づいて蒸留されたModelです。ModelはDeepSeek-R1によって生成された80万の選別されたサンプルを使用してファインチューニングされ、数学、プログラミング、推論タスクにおいて卓越したパフォーマンスを示します。AIME 2024、MATH-500、GPQA Diamondを含む様々なベンチマークで印象的な結果を達成し、MATH-500では94.3%の正確性を達成し、その強力な数学的推論能力を示しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.18

/ M Tokens

Output:

$

0.18

/ M Tokens

DeepSeek

chat

DeepSeek-R1-Distill-Qwen-14B

リリース日:2025/01/20

DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bをベースにした蒸留されたModelです。このModelは、DeepSeek-R1によって生成された800kの精選されたサンプルを使用してファインチューニングされ、優れた推論能力を示しています。MATH-500で93.9%の精度、AIME 2024で69.7%の合格率、CodeForcesでは1481の評価を達成し、数学およびプログラミングタスクにおけるその卓越した能力を示しています。...

Total Context:

131K

Max output:

131K

Input:

$

0.1

/ M Tokens

Output:

$

0.1

/ M Tokens

DeepSeek

chat

DeepSeek-R1-Distill-Qwen-7B

リリース日:2025/01/20

DeepSeek-R1-Distill-Qwen-7Bは、Qwen2.5-Math-7Bに基づいた蒸留モデルです。このモデルは、DeepSeek-R1によって生成された80万の精選されたサンプルを使用してファインチューニングされ、強力な推論能力を示しています。MATH-500では92.8%の正確性、AIME 2024では55.5%の合格率、CodeForcesでは1189の評価を達成し、7Bスケールモデルとして卓越した数学的およびプログラミングの能力を示しています。...

Total Context:

33K

Max output:

16K

Input:

$

0.05

/ M Tokens

Output:

$

0.05

/ M Tokens

Qwen

chat

Qwen2.5-Coder-32B-Instruct

リリース日:2024/11/11

Qwen2.5-Coder-32B-Instructは、Qwen2.5をベースに開発されたコード特化の大規模言語モデルです。このModelは、5.5兆のtokenを使ってトレーニングを受けており、コード生成、コード推論、そしてコード修正において大きな改善を遂げています。現在、オープンソースのコード言語モデルとして最先端であり、そのコーディング能力はGPT-4に匹敵します。このModelは、コーディング能力を向上させただけでなく、数学や一般的な能力においても強みを持ち、長Text処理もサポートしています。...

Total Context:

33K

Max output:

4K

Input:

$

0.18

/ M Tokens

Output:

$

0.18

/ M Tokens

Qwen

chat

Qwen2.5-72B-Instruct-128K

リリース日:2024/09/18

Qwen2.5-72B-InstructはAlibaba Cloudによってリリースされた最新の大規模言語Modelシリーズの1つです。この72BModelは、コーディングや数学などの分野で大幅な改善を示しています。最大128Kのtokensのコンテキスト長をサポートします。このModelは、多言語サポートも提供しており、中国語、英語を含む29以上の言語をカバーしています。特にJSON形式における指示の追従、構造化データの理解、構造化されたOutputsの生成において顕著な改善を示しています。...

Total Context:

131K

Max output:

4K

Input:

$

0.59

/ M Tokens

Output:

$

0.59

/ M Tokens

DeepSeek

chat

deepseek-vl2

リリース日:2024/12/13

DeepSeek-VL2は、DeepSeekMoE-27Bに基づいて開発された混合専門家(MoE)ビジョン-言語モデルであり、疎活性化MoEアーキテクチャを採用して4.5Bの活性パラメータのみで優れたパフォーマンスを達成します。 このModelは、視覚的質問応答、光学文字認識、文書/テーブル/チャート理解、視覚的グラウンディングなど、さまざまなタスクで優れています。 既存のオープンソースの密結合モデルおよびMoEベースのモデルと比較して、同等または最先端のパフォーマンスを同じまたは少ない活性パラメータで示します。...

Total Context:

4K

Max output:

4K

Input:

$

0.15

/ M Tokens

Output:

$

0.15

/ M Tokens

Qwen

chat

Qwen2.5-72B-Instruct

リリース日:2024/09/18

Qwen2.5-72B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この72B Modelは、コーディングや数学などの分野で大幅な改善を示しています。この Modelは中国語や英語を含む29以上の言語をサポートし、多言語対応を提供します。指示の理解、構造化データの理解、特にJSON形式の構造化 Outputの生成において顕著な向上を示しています。...

Total Context:

33K

Max output:

4K

Input:

$

0.59

/ M Tokens

Output:

$

0.59

/ M Tokens

Qwen

chat

Qwen2.5-32B-Instruct

リリース日:2024/09/19

Qwen2.5-32B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この32B Modelは、コーディングや数学などの分野で大幅な改善を示しています。Modelはまた、多言語サポートを提供し、中国語、英語を含む29以上の言語をカバーしています。指示の理解、構造化データの理解、特にJSON形式での構造化Outputの生成において、顕著な改善が見られます。...

Total Context:

33K

Max output:

4K

Input:

$

0.18

/ M Tokens

Output:

$

0.18

/ M Tokens

Qwen

chat

Qwen2.5-14B-Instruct

リリース日:2024/09/18

Qwen2.5-14B-Instructは、Alibaba Cloudによってリリースされた最新の大規模言語モデルシリーズの一つです。この14B Modelは、コーディングや数学などの分野で大幅な改善を示しています。このModelは、中国語や英語を含む29以上の言語をカバーするマルチ言語サポートも提供しています。JSON形式で特に、指示のフォロー、構造化データの理解、および構造化されたOutputの生成において顕著な進歩を示しています。...

Total Context:

33K

Max output:

4K

Input:

$

0.1

/ M Tokens

Output:

$

0.1

/ M Tokens

Qwen

chat

Qwen2.5-7B-Instruct

リリース日:2024/09/18

Qwen2.5-7B-Instructは、Alibaba Cloudからリリースされた最新の大規模言語モデルシリーズの一つです。この7B Modelは、コーディングや数学などの分野で重要な改善を示しています。また、このModelは中国語、英語を含む29以上の言語をカバーする多言語サポートを提供します。このModelは、命令の遵守、構造化データの理解、特にJSONのような構造化されたOutputの生成において顕著な強化を示しています。...

Total Context:

33K

Max output:

4K

Input:

$

0.05

/ M Tokens

Output:

$

0.05

/ M Tokens

IndexTeam

text-to-speech

IndexTTS-2

リリース日:2025/09/10

IndexTTS2は、広範なTTSシステムにおける継続時間制御の挑戦を解決するために設計された画期的な自動回帰型ゼロショットText-to-Speech(TTS)Modelです。これは、ビデオダビングのようなアプリケーションでは重要な制限です。IndexTTS2は、音声の継続時間を制御するための新しい一般的な方法を導入し、正確な継続時間のために生成されるトークンの数を明示的に指定するモードと、自動回帰的に自由に音声を生成するモードをサポートします。さらに、IndexTTS2は感情表現と話者のアイデンティティの分離を達成し、別々のプロンプトを介して声質と感情を独立して制御することを可能にします。高度な感情表現における音声の明瞭性を向上させるために、ModelはGPT潜在表現を組み込み、革新的な3段階のトレーニング方法を利用しています。感情制御の障壁を下げるために、テキストによる説明に基づいたソフトインストラクションメカニズムも備え、微調整Qwen3によって開発され、望ましい感情の音色での音声生成を効果的にガイドします。実験結果では、IndexTTS2が複数のデータセットにおける単語エラー率、話者の類似性、感情的忠実性において、最先端のゼロショットTTSModelを上回っていることが示されています。...

$

7.15

/ M UTF-8 bytes

Meta Llama

chat

Meta-Llama-3.1-8B-Instruct

リリース日:2025/04/23

メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。...

Total Context:

33K

Max output:

4K

Input:

$

0.06

/ M Tokens

Output:

$

0.06

/ M Tokens

Black Forest Labs

text-to-image

FLUX.1-dev

リリース日:2024/08/01

$

0.014

/ Image

Black Forest Labs

text-to-image

FLUX.1-schnell

リリース日:2024/08/01

$

0.0014

/ Image

Fish Audio

text-to-speech

Fish-Speech-1.5

リリース日:2024/11/29

Fish Speech V1.5 は、オープンソースのテキストトゥスピーチ (TTS) Model の中で最も先進的なものです。このModelは革新的なDualARアーキテクチャを採用しており、二重自己回帰型トランスフォーマーデザインを特徴としています。複数の言語をサポートしており、英語と中国語には30万時間以上、日本語には10万時間以上のトレーニングデータを提供しています。TTS Arenaによる独立評価では、Modelは非常に優れた性能を発揮し、ELOスコアは1339を獲得しました。英語においては単語誤り率 (WER) が 3.5%、文字誤り率 (CER) が 1.2% を達成し、中国語の文字においては 1.3% のCERを達成しました。...

$

15.0

/ M UTF-8 bytes

FunAudioLLM

text-to-speech

FunAudioLLM/CosyVoice2-0.5B

リリース日:2024/12/16

CosyVoice 2は、大規模言語モデルに基づくストリーミング音声合成モデルであり、統一されたストリーミング/非ストリーミングフレームワーク設計を採用しています。このModelは、有限スカラー量子化(FSQ)を通じて音声tokenコードブックの利用を強化し、Text-to-speech言語Modelアーキテクチャを簡素化し、異なる合成シナリオをサポートするチャンク対応の因果的ストリーミングマッチングModelを開発します。ストリーミングモードでは、Modelは150msの超低遅延で、非ストリーミングモードとほぼ同じ合成品質を維持しています。バージョン1.0と比較して、発音エラー率が30%-50%削減され、MOSスコアが5.4から5.53に向上し、感情と方言に対する細かい制御がサポートされています。Modelは、中国語(方言を含む:広東語、四川方言、上海語、天津方言など)、英語、日本語、韓国語をサポートし、クロスリンガルおよび混合言語のシナリオをサポートしています。...

$

7.15

/ M UTF-8 bytes

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow