
Qwen
Text Generation
Qwen3-VL-32B-Instruct
Qwen3-VLは、Qwen3シリーズのVision-Languageモデルであり、さまざまなVision-Language(VL)ベンチマークで最先端(SOTA)のパフォーマンスを達成しています。このModelは、メガピクセルレベルまでの高解像度Image入力をサポートし、一般的な視覚理解、多言語OCR、細かな視覚的グラウンディング、視覚的対話における強力な機能を備えています。Qwen3シリーズの一部として、強力な言語基盤を継承しており、複雑な指示を理解し実行することができます。...
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-VL-32B-Thinking
Qwen3-VL-Thinkingは、複雑な視覚的推論タスクのために特別に最適化されたQwen3-VLシリーズのバージョンです。これは"Thinking Mode"を取り入れており、最終的な答えを出す前に詳細な中間推論ステップ(Chain-of-Thought)を生成できます。この設計は、マルチステップの論理、計画、および詳細な分析を必要とする視覚質問応答(VQA)やその他のビジョン-言語タスクにおいて、モデルのパフォーマンスを大幅に向上させます。...
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-8B-Instruct
Qwen3-VL-8B-InstructはQwen3シリーズのVision-Imageモデルであり、一般的な視覚理解、視覚中心の対話、画像における多言語Text認識において強力な能力を示しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Instruct
Qwen3-VL-235B-A22B-Instructは235Bパラメータを持つ専門家の集合(MoE)Vision-language Modelで、22Bのアクティブパラメータがあります。これはQwen3-VL-235B-A22Bの指示調整されたバージョンで、Chatアプリケーションに合わせられています。...
Total Context:
262K
Max output:
262K
Input:
$
0.3
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Thinking
Qwen3-VL-235B-A22B-Thinking は Qwen3-VL シリーズのモデルの一つで、最先端の結果を達成する推論強化版の Thinking エディションです。これは、多くのマルチモーダル推論ベンチマークで優れた成果を挙げており、STEM、数学、因果分析、論理的かつ証拠に基づいた回答に秀でています。全パラメータが235Bで、アクティブパラメータが22Bの合計パラメータを持つ、ミックスチャーオブエキスパート (MoE) アーキテクチャを備えています。...
Total Context:
262K
Max output:
262K
Input:
$
0.45
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Instruct
Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Thinking
Qwen3-VLシリーズは、優れたTextの理解と生成、より深い視覚的知覚と推論、拡張されたコンテキスト長、強化された空間およびVideoダイナミクスの理解、より強力なエージェント相互作用の機能を提供します。エッジからクラウドまでスケールするDenseおよびMoEアーキテクチャで利用可能で、指示と推論が強化されたThinkingエディションが含まれています。...
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Image-to-Video
Wan2.2-I2V-A14B
$
0.29
/ Video
Input:
$
text
/ Video


Qwen
Text-to-Video
Wan2.2-T2V-A14B
$
0.29
/ Video
Input:
$
text
/ Video


Qwen
Text-to-Image
Qwen-Image
$
0.02
/ Image
Input:
$
text
/ Image


Qwen
Image-to-Image
Qwen-Image-Edit
$
0.04
/ Image
Input:
$
text
/ Image


Qwen
Text Generation
Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder-480B-A35B-Instructは、Alibabaによってこれまでにリリースされた中で最もエージェンティックなコードModelです。それは4800億の総パラメータと350億の活性化パラメータを持つエキスパートのミクスチャー (MoE) Modelであり、効率とパフォーマンスのバランスを取っています。このModelは256K(約262,144)tokenのコンテキスト長をネイティブにサポートし、YaRNのような外挿法を用いることで100万tokenまで拡張可能で、リポジトリ規模のコードベースや複雑なプログラミングタスクを処理することができます。Qwen3-Coderは、エージェンティックコーディングワークフローのために特別に設計されており、コードを生成するだけでなく、開発者ツールや環境と自律的に対話して複雑な問題を解決します。最先端のオープンModelの中でコーディングとエージェンティックなベンチマークで最先端の結果を達成しており、Claude Sonnet 4のような先進的なModelに匹敵するパフォーマンスを持っています。このModelと共に、Alibabaはその強力なエージェンティックコーディング能力を完全に発揮するために設計されたコマンドラインツールであるQwen Codeもオープンソース化しました。...
Total Context:
262K
Max output:
262K
Input:
$
0.25
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-480B-A35B
Qwen3-Coder-480B-A35B-Instruct is the most agentic code model released by Alibaba to date. It is a Mixture-of-Experts (MoE) model with 480 billion total parameters and 35 billion activated parameters, balancing efficiency and performance. The model natively supports a 256K (approximately 262,144) token context length, which can be extended up to 1 million tokens using extrapolation methods like YaRN, enabling it to handle repository-scale codebases and complex programming tasks. Qwen3-Coder is specifically designed for agentic coding workflows, where it not only generates code but also autonomously interacts with developer tools and environments to solve complex problems. It has achieved state-of-the-art results among open models on various coding and agentic benchmarks, with performance comparable to leading models like Claude Sonnet 4. Alongside the model, Alibaba has also open-sourced Qwen Code, a command-line tool designed to fully unleash its powerful agentic coding capabilities...
Total Context:
262K
Max output:
262K
Input:
$
0.25
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-30B-A3B-Instruct
Qwen3-Coder-30B-A3B-Instructは、AlibabaのQwenチームによって開発されたQwen3シリーズのコードModelです。洗練され最適化されたModelとして、強化されたコーディング機能に焦点を当てつつ、印象的なパフォーマンスと効率を維持しています。Agentic Coding、Agentic Browser-Use、その他の基礎的なコーディングタスクのような複雑なタスクにおいて、オープンソースのModel間で顕著なパフォーマンスの優位性を示しています。このModelは、256K tokenという長いコンテキストをネイティブにサポートしており、1M tokenまで拡張可能で、リポジトリ規模の理解と処理をより良くします。さらに、Qwen CodeやCLINEのようなプラットフォームのための強力なエージェンティックコーディングのサポートを提供し、特別に設計された関数呼び出しフォーマットを備えています。...
Total Context:
262K
Max output:
262K
Input:
$
0.07
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Instruct-2507
Qwen3-30B-A3B-Instruct-2507はQwen3-30B-A3B無考モードの更新版です。それは30.5億の総パラメータと3.3億の活性化パラメータを持つエキスパートの組合せ(MoE)モデルです。このバージョンは、指示の遵守、論理的推論、Text理解、数学、科学、コーディング、ツールの使用などの一般的な能力の顕著な改善を含む重要な強化を特徴としています。また、多言語にわたる長い知識のカバー率における大幅な向上を示し、主観的でオープンエンドなタスクにおいてユーザーの好みとの整合性が著しく向上し、より役立つ応答と高品質なText生成を可能にします。さらに、256Kまでの長いコンテキスト理解能力が強化されました。このModelは無考モードのみをサポートし、Outputに`<think></think>`ブロックを生成しません。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Thinking-2507
Qwen3-30B-A3B-Thinking-2507は、アリババのQwenチームによってリリースされたQwen3シリーズの最新のシンキングModelです。30.5億の総パラメータと3.3億のアクティブパラメータを持つ専門家の集合(MoE)Modelであり、複雑なタスクへの能力向上に注力しています。Modelは、論理的推論、数学、科学、コーディング、通常は人間の専門知識を必要とする学術ベンチマークなどの推論タスクで顕著に改善されたパフォーマンスを示しています。また、指示のフォロー、ツールの使用、Text生成、人間の好みに一致する能力など、一般的な能力も大幅に向上しています。Modelは256Kの長文脈理解能力をネイティブにサポートしており、最大100万tokenまで拡張可能です。このバージョンは、段階的な推論を通じて非常に複雑な問題に取り組むために「シンキングモード」に特化して設計されており、代理行動能力にも優れています。...
Total Context:
262K
Max output:
131K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Instruct-2507
Qwen3-235B-A22B-Instruct-2507は、Alibaba CloudのQwenチームによって開発されたQwen3シリーズのフラッグシップMixture-of-Experts(MoE)大規模言語モデルです。このモデルは、合計2350億のパラメータを持ち、各フォワードパスで22億が活性化されます。Qwen3-235B-A22B非思考モードの更新版としてリリースされ、指示のフォロー、論理的な推論、テキスト理解、数学、科学、コーディング、およびツールの使用などの一般的な機能において重要な強化を備えています。さらに、このモデルは複数の言語にわたる長尾の知識カバレッジにおいて大幅な向上を示し、主観的でオープンエンドのタスクにおいてユーザーの好みにより良く合致するようになり、より役立つ応答と高品質なテキスト生成を可能にします。特に、256K (262,144 tokens) の広範なコンテキストウィンドウをネイティブにサポートし、長文コンテキストの理解能力を向上させます。このバージョンは非思考モードに専念し、<think>ブロックを生成せず、直接的なQ&Aや知識検索のようなタスクにおいてより効率的で正確な応答を提供することを目指しています。...
Total Context:
262K
Max output:
262K
Input:
$
0.09
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Thinking-2507
Qwen3-235B-A22B-Thinking-2507は、アリババのQwenチームによって開発されたQwen3の大規模言語モデルシリーズのメンバーで、非常に複雑な推論タスクを専門としています。このModelは、Mixture-of-Experts (MoE)アーキテクチャに基づいており、合計2350億のパラメータと、tokenあたり約220億のアクティブパラメータを持ち、計算効率を高めながら強力なパフォーマンスを維持しています。専用の「thinking」Modelとして、人間の専門知識を必要とする課題(論理的推論、数学、科学、コーディング、学術ベンチマークなど)において、オープンソースのthinkingモデルの中で最先端の結果を達成しています。さらに、このModelは、指示の追従、ツールの使用、Text生成といった一般的な能力が強化されており、256Kのロングコンテキスト理解能力をネイティブにサポートし、深い推論や長文の処理を必要とするシナリオに理想的です。...
Total Context:
262K
Max output:
262K
Input:
$
0.13
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-32B
Qwen3-32Bは、Qwenシリーズの最新の大規模言語モデルで、32.8Bのパラメーターを備えています。このモデルは、シームレスな切り替えを特長とし、複雑な論理的推論、数学、コーディングに対応する考えるモードと、効率的で汎用的な対話を行う非考えるモードを切り替えます。これは、数理、コード生成、常識的な論理推論において、以前のQwQやQwen2.5指示モデルを超える大幅に強化された推論能力を示しています。そのため、創造的な文章作成、ロールプレイング、マルチターンの対話において人間の好みとの整合性に優れています。さらに、強力な多言語の指示追従と翻訳能力を備え、100以上の言語と方言に対応しています。...
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-14B
Qwen3-14Bは、Qwenシリーズの最新の大型言語Modelで、14.8Bのパラメーターを持っています。このModelは、複雑な論理的推論、数学、コーディングの場合は思考モード、効率的で汎用的な対話のためには非思考モードの間でシームレスに切り替えることを独自にサポートします。それは数学、コード生成、常識的な論理推論において以前のQwQおよびQwen2.5指示Modelsを超える、著しく強化された推論能力を示しています。このModelは、創造的な執筆、ロールプレイ、マルチターン対話のための人間の好みの調整においても優れています。さらに、100以上の言語と方言を強力な多言語指示と翻訳能力でサポートします。...
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-8B
Qwen3-8BはQwenシリーズの最新の大規模言語モデルで、8.2Bのパラメータを持っています。このModelは、複雑な論理的推論、数学、コーディングに適した思考モードと、効率的な汎用対話に適した非思考モードの間でシームレスに切り替えることができるユニークな機能を持っています。それは、前のQwQやQwen2.5の指示モデルを超えた数学、コード生成、および常識的論理推論において、顕著に強化された推論能力を示しています。このModelは、創作、役割演技、マルチターン対話における人間の好みの調整に優れています。さらに、強力な多言語指示追従および翻訳能力を持ち、100以上の言語と方言をサポートしています...
Total Context:
131K
Max output:
131K
Input:
$
0.06
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.06
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-8B
Qwen3-Reranker-8Bは、Qwen3シリーズからの80億パラメータのText再ランク付けModelです。クエリへの関連性に基づいてドキュメントを正確に再順序付けすることによって、検索結果の品質を改善し、改善するように設計されています。強力なQwen3基盤モデルをベースに構築されており、32kのコンテキスト長で長いTextを理解し、100以上の言語をサポートします。Qwen3-Reranker-8B Modelは、さまざまなTextおよびコード検索シナリオで最先端のパフォーマンスを提供する柔軟なシリーズの一部です。...
$
0.04
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-8B
Qwen3-Embedding-8Bは、Qwen3 Embeddingシリーズの最新のプロプライエタリModelであり、特にText Embeddingおよびランキングタスク用に設計されています。この8BパラメータModelは、Qwen3シリーズの密な基盤Modelの上に構築されており、最大32Kのコンテキスト長をサポートし、最大4096の次元でEmbeddingを生成できます。このModelは、100を超える言語をサポートする優れた多言語機能を継承しており、長文理解と推論スキルを備えています。2025年6月5日時点ではMTEB多言語リーダーボードで第1位(スコア70.58)にランクされ、テキスト検索、コード検索、Text分類、クラスタリング、bitextマイニングなど、さまざまなタスクで最先端のパフォーマンスを示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクター次元(32から4096)と指示に応じた機能を提供します。...
Input:
$
0.04
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-4B
Qwen3-Embedding-4Bは、Qwen3 Embeddingシリーズ最新の独自Modelで、特にText Embeddingおよびランキングタスク用に設計されています。この4BパラメータModelは、Qwen3シリーズの密集した基礎Modelを基にしており、最大32Kのコンテキスト長をサポートし、最大2560の次元でEmbeddingを生成できます。このModelは、100を超える言語に対応した卓越した多言語機能を継承しており、長文理解と推論スキルを備えています。それは、MTEB多言語リーダーボードで優れた業績(スコア69.45)を達成し、テキスト検索、コード検索、Text分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、特定のタスクやシナリオでのパフォーマンスを向上させるために、柔軟なベクトル次元(32から2560)と命令対応機能を提供し、効率性と効果性の間で最適なバランスを提供します。...
Input:
$
0.02
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-0.6B
Qwen3-Reranker-0.6BはQwen3シリーズからのText再ランキングModelです。これは特定のクエリに対する関連性に基づいてドキュメントを再注文することにより、初期取得システムの結果を洗練するために特別に設計されています。0.6Bパラメータと32kのコンテキスト長を持つこのModelは、Qwen3の基盤の強力な多言語(100以上の言語をサポート)、長文理解、および推論能力を活用しています。評価結果は、Qwen3-Reranker-0.6BがMTEB-R、CMTEB-R、およびMLDRを含む様々なText取得ベンチマークで強力なパフォーマンスを達成することを示しています。...
$
0.01
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-0.6B
Qwen3-Embedding-0.6Bは、Qwen3 Embeddingシリーズ内の最新の独自モデルであり、特にテキストEmbeddingおよびランキングタスク用に設計されています。Qwen3シリーズの密集した基盤モデルの上に構築されたこの0.6Bパラメータモデルは、32Kまでのコンテキスト長をサポートし、最大1024の次元でEmbeddingを生成できます。このModelは、100以上の言語をサポートする優れた多言語機能を引き継ぎ、長文理解と推論能力を備えています。MTEB多言語リーダーボードで強力なパフォーマンスを発揮し(スコア64.33)、テキスト検索、コード検索、テキスト分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、柔軟なベクトル次元(32から1024)と特定のタスクおよびシナリオでのパフォーマンス向上のための指示対応能力を提供し、効率と効果の両方を優先するアプリケーションにとって理想的な選択肢となります。...
Input:
$
0.01
/ M Tokens
Input:
$
text
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-32B-Instruct
Qwen2.5-VL-32B-Instructは、QwenチームによってリリースされたMultimodal大型言語Modelで、Qwen2.5-VLシリーズの一部です。このModelは一般的なオブジェクトを認識するだけでなく、Images内のText、チャート、アイコン、グラフィック、レイアウトを分析する能力に優れています。視覚エージェントとして、論理的に推論し、コンピュータや携帯電話を使用するためのツールを動的に指示することができます。さらに、このModelはImages内のオブジェクトを正確にローカライズし、請求書やテーブルなどのデータに対して構造化されたOutputsを生成することが可能です。前任のQwen2-VLと比較して、このバージョンは強化学習による数学的および問題解決能力が向上しており、応答のスタイルが人間の嗜好により良く合うように調整されています。...
Total Context:
131K
Max output:
131K
Input:
$
0.27
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.27
/ M Tokens

Qwen
Text Generation
QwQ-32B
QwQはQwenシリーズの推論Modelです。従来の指示調整済みModelと比較して、思考と推論が可能なQwQは、特に困難な問題において、下流タスクで大幅に向上したパフォーマンスを達成できます。QwQ-32Bは中型の推論Modelであり、最先端の推論Model、例えばDeepSeek-R1、o1-miniに対抗できる競争力のあるパフォーマンスを達成することができます。このModelは、RoPE、SwiGLU、RMSNorm、Attention QKVバイアスなどの技術を取り入れており、64層と40のQアテンションヘッド(GQAアーキテクチャではKVに8つ)を備えています。...
Total Context:
131K
Max output:
131K
Input:
$
0.15
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.58
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-72B-Instruct
Qwen2.5-VLはQwen2.5シリーズのビジョン-言語モデルであり、いくつかの側面で大きな向上を示しています。それは共通のオブジェクトを認識しながらテキスト、チャート、およびレイアウトを分析する強力な視覚理解能力を備えており、推論し、動的にツールを指示できる視覚エージェントとして機能します。また、1時間以上のビデオを理解し、重要なイベントをキャプチャすることができます。さらに、画像の中のオブジェクトを正確に特定し、バウンディングボックスやポイントを生成して局在化します。請求書やフォームのようなスキャンデータのための構造化された出力をサポートしており、Image、Video、およびエージェントタスクを含むさまざまなベンチマークで優れたパフォーマンスを示します。...
Total Context:
131K
Max output:
4K
Input:
$
0.59
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct
Qwen2.5-72B-Instructは、Alibaba Cloudがリリースした最新の大規模言語モデルシリーズの1つです。この72B Modelは、コーディングや数学などの分野で大幅な改善を示しています。この Modelは中国語や英語を含む29以上の言語をサポートし、多言語対応を提供します。指示の理解、構造化データの理解、特にJSON形式の構造化 Outputの生成において顕著な向上を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.59
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-7B-Instruct
Qwen2.5-7B-Instructは、Alibaba Cloudからリリースされた最新の大規模言語モデルシリーズの一つです。この7B Modelは、コーディングや数学などの分野で重要な改善を示しています。また、このModelは中国語、英語を含む29以上の言語をカバーする多言語サポートを提供します。このModelは、命令の遵守、構造化データの理解、特にJSONのような構造化されたOutputの生成において顕著な強化を示しています。...
Total Context:
33K
Max output:
4K
Input:
$
0.05
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
0.05
/ M Tokens

