
Qwen
Text Generation
Qwen3-VL-32B-Instruct
Qwen3-VL 是 Qwen3 系列中的視覺-語言模型,在各種視覺-語言(VL)基準測試中取得了最先進(SOTA)的表現。該模型支持高達百萬像素的高解析度圖像輸入,並具備強大的一般視覺理解能力、多語言 OCR、細微的視覺定位和視覺對話能力。作為 Qwen3 系列的一部分,它繼承了強大的語言基礎,使其能夠理解和執行複雜的指令。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-VL-32B-Thinking
Qwen3-VL-Thinking 是 Qwen3-VL 系列中特別優化於複雜視覺推理任務的版本。它融合了一種“思考模式”,使其在提供最終答案之前能夠生成詳細的中間推理步驟(思維鏈)。此設計顯著提高了模型在視覺問答(VQA)和其他視覺-語言任務中需要多步邏輯、規劃和深入分析之性能。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-8B-Instruct
Qwen3-VL-8B-Instruct 是 Qwen3 系列的視覺-語言模型,展示了在一般視覺理解、以視覺為中心的對話和圖像中的多語言文本識別方面的強大能力。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.68
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Instruct
Qwen3-VL-235B-A22B-Instruct 是基於 235B 參數的專家混合 (MoE) 視覺-語言模型,具有 22B 啟動參數。這是一個經過指令調整的 Qwen3-VL-235B-A22B 版本,適用於聊天應用程式。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.3
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-235B-A22B-Thinking
Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 系列模型的一種,這是一個增強推理能力的 Thinking 版本,在許多多模態推理基準中達到了最先進的 (SOTA) 成果,尤其在 STEM、數學、因果分析和邏輯、證據為基礎的答案中表現卓越。它具有一種專家混合 (MoE) 架構,總參數量為 235B,活躍參數量為 22B。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.45
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
3.5
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Instruct
Qwen3-VL系列提供卓越的文本理解與生成、更深入的視覺感知與推理、擴展的上下文長度、增強的空間與視頻動態理解,以及更強的代理互動能力。可提供緻密型和MoE架構,從邊緣計算擴展到雲端,並有指導型和加強推理的Thinking版本。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-VL-30B-A3B-Thinking
Qwen3-VL系列提供卓越的文本理解與生成、更深入的視覺感知與推理、擴展的上下文長度、增強的空間與視頻動態理解,以及更強的代理互動能力。可提供緻密型和MoE架構,從邊緣計算擴展到雲端,並有指導型和加強推理的Thinking版本。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1
/ M Tokens

Qwen
Image-to-Video
Wan2.2-I2V-A14B
$
0.29
/ Video
輸入:
$
text
/ Video


Qwen
Text-to-Video
Wan2.2-T2V-A14B
$
0.29
/ Video
輸入:
$
text
/ Video


Qwen
Text-to-Image
Qwen-Image
$
0.02
/ Image
輸入:
$
text
/ Image


Qwen
Image-to-Image
Qwen-Image-Edit
$
0.04
/ Image
輸入:
$
text
/ Image


Qwen
Text Generation
Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder-480B-A35B-Instruct 是目前阿里巴巴發布的最具自主性代碼模型。它是一個專家混合(MoE)模型,擁有總共 4800 億參數和 350 億激活參數,實現效率和性能的平衡。該模型本地支持 256K(約 262,144)token 上下文長度,通過使用 YaRN 等外插方法可以擴展到 1 百萬 token,使其能夠處理庫規模的代碼庫和複雜的編程任務。Qwen3-Coder 專為自主代碼工作流程而設計,不僅生成代碼,還能自主地與開發者工具和環境互動以解決複雜問題。在各種代碼和自主基準測試中,其表現達到了開放模型中的先進水平,性能可媲美領先的模型如 Claude Sonnet 4。阿里巴巴還開源了 Qwen Code,一個命令行工具,旨在充分釋放其強大的自主代碼功能。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.25
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-480B-A35B
Qwen3-Coder-480B-A35B-Instruct is the most agentic code model released by Alibaba to date. It is a Mixture-of-Experts (MoE) model with 480 billion total parameters and 35 billion activated parameters, balancing efficiency and performance. The model natively supports a 256K (approximately 262,144) token context length, which can be extended up to 1 million tokens using extrapolation methods like YaRN, enabling it to handle repository-scale codebases and complex programming tasks. Qwen3-Coder is specifically designed for agentic coding workflows, where it not only generates code but also autonomously interacts with developer tools and environments to solve complex problems. It has achieved state-of-the-art results among open models on various coding and agentic benchmarks, with performance comparable to leading models like Claude Sonnet 4. Alongside the model, Alibaba has also open-sourced Qwen Code, a command-line tool designed to fully unleash its powerful agentic coding capabilities...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.25
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
1.0
/ M Tokens

Qwen
Text Generation
Qwen3-Coder-30B-A3B-Instruct
Qwen3-Coder-30B-A3B-Instruct 是阿里巴巴的 Qwen 团队开发的 Qwen3 系列代码模型。作为一个精简和优化的模型,它在增强编码能力的同时保持了出色的性能和效率。它在复杂任务上展示了显著的性能优势,比如代理编码、代理浏览器使用和其他基础编码任务。该模型本地支持 256K tokens 的长上下文,可以扩展到 1M tokens,从而实现更好的仓库规模理解和处理。此外,它为像 Qwen Code 和 CLINE 这样的平台提供强大的代理编码支持,并具有专门设计的函数调用格式。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.07
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Instruct-2507
Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。它是一個專家混合(MoE)模型,擁有 305 億個總參數和 33 億個活躍參數。此版本具有關鍵的增強功能,包括在一般能力方面的重要改進,例如指令跟隨、邏輯推理、文本理解、數學、科學、編程和工具使用。在多種語言的長尾知識覆蓋率方面也顯著提升,並在主觀和開放式任務中提供了更好地對齊用戶偏好的能力,使其能夠生成更有幫助的回應和更高質量的文本。此外,它在長上下文理解能力方面得到了增強,達到 256K。這個模型僅支持非思考模式,並且在輸出中不生成 `<think></think>` 塊。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.09
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-30B-A3B-Thinking-2507
Qwen3-30B-A3B-Thinking-2507 是 Qwen3 系列中最新的思考模型,由阿里巴巴的 Qwen 团队發布。作為 Mixture-of-Experts (MoE) 模型,擁有 305 億個總參數和 33 億個活動參數,它專注於提升複雜任務的能力。該模型在推理任務上顯示了顯著提升,包括邏輯推理、數學、科學、編碼和通常需要人類專業知識的學術基準。它還顯示出明顯更好的通用能力,如遵循指令、工具使用、文本生成以及與人類偏好的對齊。該模型原生支持 256K 長上下文理解能力,可擴展到 100 萬 token。此版本專門設計為「思考模式」,通過逐步推理來解決高度複雜的問題,並且在主動性能力方面表現出色。...
總上下文:
262K
最大輸出:
131K
輸入:
$
0.09
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.3
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Instruct-2507
Qwen3-235B-A22B-Instruct-2507是阿里巴巴云Qwen团队开发的Qwen3系列的旗舰專家组合(MoE)大型語言模型。該模型總共有2350億個參數,每次正向傳遞啟動22億個參數。它作為Qwen3-235B-A22B非思考模式的更新版本發布,具有在指令跟隨、邏輯推理、文本理解、數學、科學、編碼和工具使用等一般能力方面顯著增強。此外,該模型在多種語言的長尾知識覆蓋方面提供了顯著增益,並在主觀和開放式任務中顯著更好地與用戶偏好對齊,能夠產生更有用的回應和更高質量的文本生成。值得注意的是,它本地支持擴展的256K(262,144個tokens)上下文窗口,這提高了其對長文本上下文的理解能力。本版本專門支持非思考模式,不生成<think>塊,旨在為直接問答和知識檢索等任務提供更高效和精確的回應。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.09
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-235B-A22B-Thinking-2507
Qwen3-235B-A22B-Thinking-2507 是阿里巴巴 Qwen 团队开发的 Qwen3 大型语言模型系列的成员,专注于高度复杂的推理任务。此模型基于专家混合体(MoE)架构构建,具有 2350 亿个总参数和每个token约 220 亿个激活参数,从而在保持强大性能的同时提高计算效率。作为一个专用的“思维”模型,它在逻辑推理、数学、科学、编码和学术基准等需要人类专业知识的任务上表现显著提升,取得了开源思维模型中的最先进成果。此外,该模型具有增强的通用能力,如指令跟随、工具使用和文本生成,并且本地支持 256K 长文本理解能力,适合需要深入推理和处理长文档的场景。...
總上下文:
262K
最大輸出:
262K
輸入:
$
0.13
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
Text Generation
Qwen3-32B
Qwen3-32B 是 Qwen 系列中最新的大型語言模型,擁有 32.8B 的參數。此模型獨特地支持在思維模式(用於複雜的邏輯推理、數學和編程)和非思維模式(用於高效、通用目的對話)之間無縫切換。它顯示出顯著增強的推理能力,超越了之前的 QwQ 和 Qwen2.5 指導模型在數學、代碼生成和常識邏輯推理方面的表現。該模型在創意寫作、角色扮演與多輪對話的人類偏好對齊方面表現出色。此外,它支持超過 100 種語言和方言,具備強大的多語言指令跟隨和翻譯能力...
總上下文:
131K
最大輸出:
131K
輸入:
$
0.14
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.57
/ M Tokens

Qwen
Text Generation
Qwen3-14B
Qwen3-14B是Qwen系列中的最新大型語言模型,擁有14.8B個參數。此模型獨特地支持在思考模式(用于复杂逻辑推理、数学和编码)和非思考模式(用于高效、通用对话)之间无缝切换。它在推理能力上显著增强,超越了之前的QwQ和Qwen2.5指令模型在数学、代码生成和常识逻辑推理方面的表现。模型在创造性写作、角色扮演和多轮对话的人类偏好对齐方面表现优异。此外,它支持超过100种语言和方言,具有强大的多语言指令遵循和翻译能力...
總上下文:
131K
最大輸出:
131K
輸入:
$
0.07
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.28
/ M Tokens

Qwen
Text Generation
Qwen3-8B
Qwen3-8B 是 Qwen 系列中最新的大型語言模型,擁有 8.2 億個參數。此模型獨特地支持無縫切換思維模式(用於複雜的邏輯推理、數學和編碼)和非思維模式(用於高效、通用的對話)。它展示了顯著增強的推理能力,在數學、代碼生成和常識性邏輯推理方面超越了之前的 QwQ 和 Qwen2.5 指導模型。該模型在創意寫作、角色扮演和多輪對話的人類偏好對齊方面表現出色。此外,它支持 100 多種語言和方言,具備強大的多語言指令遵循和翻譯能力。...
總上下文:
131K
最大輸出:
131K
輸入:
$
0.06
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.06
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-8B
Qwen3-Reranker-8B 是 Qwen3 系列中的 80 億參數文本重新排序模型。該模型旨在通過根據查詢的相關性準確重新排序文檔來改進搜索結果的質量。基於強大的 Qwen3 基礎模型,它在理解長文本(具有 32k 上下文長度)方面表現優異,並支持超過 100 種語言。Qwen3-Reranker-8B 模型是提供各種文本和代碼檢索場景中先進性能的靈活系列的一部分。...
$
0.04
/ M Tokens
輸入:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-8B
Qwen3-Embedding-8B 是 Qwen3 Embedding 系列中最新的專有模型,專門設計用於文本嵌入和排序任務。此 8B 參數模型基於 Qwen3 系列的密集基礎模型構建,支持上下文長度達到 32K 並能生成最大 4096 維的嵌入。該模型繼承了卓越的多語言能力,支持超過 100 種語言,並具備長文本理解與推理技能。它在 MTEB 多語言排行榜上排名第 1(截至2025年6月5日,得分70.58),在多項任務中展示出最先進的性能,包括文本檢索、代碼檢索、文本分類、聚類和雙語本地語料探索。該模型提供靈活的向量維度(32 到 4096)和指令感知的功能,以提升特定任務和場景的性能。...
輸入:
$
0.04
/ M Tokens
輸入:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-4B
Qwen3-Embedding-4B 是 Qwen3 Embedding 系列中最新的專有模型,專門為文本嵌入和排名任務設計。該模型建立於 Qwen3 系列的密集基礎模型之上,擁有4B參數的模型支援長度達到32K的上下文,以及可以生成最高達到2560維度的嵌入。模型繼承了卓越的多語言能力,支援超過100種語言,並具有長文本理解和推理技能。在 MTEB 多語言排行榜上表現出色(得分69.45),並在各種任務中展示了卓越的結果,包括文本檢索、代碼檢索、文本分類、聚類以及對語料挖掘。模型提供靈活的向量維度(32到2560)以及指令感知能力,以在特定任務和場景中提升性能,實現效率和效果的最佳平衡。...
輸入:
$
0.02
/ M Tokens
輸入:
$
text
/ M Tokens

Qwen
Reranker
Qwen3-Reranker-0.6B
Qwen3-Reranker-0.6B 是 Qwen3 系列中的文本重排序模型。它專門設計來通過根據給定查詢的相關性重新排序文檔來改進初始檢索系統的結果。此模型擁有 0.6 億個參數和 32k 的上下文長度,利用其 Qwen3 基礎的強大多語言(支持100多種語言)、長文本理解和推理能力。評估結果顯示,Qwen3-Reranker-0.6B 在各種文本檢索基準測試中達到了強勁的性能,包括 MTEB-R、CMTEB-R 和 MLDR。...
$
0.01
/ M Tokens
輸入:
$
text
/ M Tokens

Qwen
Embedding
Qwen3-Embedding-0.6B
Qwen3-Embedding-0.6B 是最先進的專有模型,屬於 Qwen3 Embedding 系列,專為文本嵌入和排序任務設計。基於 Qwen3 系列的密集基礎模型構建,此 0.6B 參數模型支持最長 32K 的上下文長度,並能生成最高達 1024 維的嵌入。該模型繼承了卓越的多語言能力,支持超過 100 種語言,並且具備長文本理解和推理技能。在 MTEB 多語言排行榜上取得了強勁的表現(得分 64.33),並在各種任務上展示了出色的結果,包括文本檢索、代碼檢索、文本分類、聚類和雙文本挖掘。該模型提供靈活的向量維度(32 至 1024)和指令感知能力,以在特定任務和場景中增強性能,成為在應用中优先考慮效率和效果的理想選擇。...
輸入:
$
0.01
/ M Tokens
輸入:
$
text
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-32B-Instruct
Qwen2.5-VL-32B-Instruct 是由 Qwen 團隊發佈的多模態大型語言模型,屬於 Qwen2.5-VL 系列。這個模型不僅能夠識別常見的物件,還能高度分析文本、圖表、圖標、圖形和圖片中的佈局。它作為一個視覺代理,能夠推理並動態指導工具,能夠使用電腦和手機。此外,模型能準確地定位圖片中的物體,並為諸如發票和表格等數據生成結構化輸出。與其前身 Qwen2-VL 相比,這個版本通過增強學習提高了數學和問題解決能力,並調整了回應風格以更好地符合人類偏好。...
總上下文:
131K
最大輸出:
131K
輸入:
$
0.27
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.27
/ M Tokens

Qwen
Text Generation
QwQ-32B
QwQ 是 Qwen 系列的推理模型。與傳統的指令調優模型相比,能思考和推理的 QwQ 能在下游任務中實現顯著提升的性能,尤其是在處理困難問題時。QwQ-32B 是中型推理模型,能夠在與尖端推理模型,例如 DeepSeek-R1、o1-mini 的競爭中展示出色的性能。該模型融合了 RoPE、SwiGLU、RMSNorm 和注意力 QKV 偏差等技術,擁有 64 層和 40 個 Q 注意力頭(在 GQA 架構中,有 8 個用於 KV)...
總上下文:
131K
最大輸出:
131K
輸入:
$
0.15
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.58
/ M Tokens

Qwen
Text Generation
Qwen2.5-VL-72B-Instruct
Qwen2.5-VL 是 Qwen2.5 系列中的一個視覺-語言模型,在多個方面顯示出顯著的增強:它具有強大的視覺理解能力,能夠在分析文本、圖表和圖像佈局時識別常見物體;它可以作為一個視覺代理,具備推理能力並能動態引導工具;它能夠理解長達 1 小時以上的影片並捕捉關鍵事件;它能通過生成邊界框或點來精確定位圖像中的物體;它支持結構化的掃描數據輸出如發票和表單。該模型在包括圖像、影片和代理任務的各種基準上展示了卓越的表現。...
總上下文:
131K
最大輸出:
4K
輸入:
$
0.59
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-72B-Instruct
Qwen2.5-72B-Instruct 是阿里雲最新發布的大型語言模型系列之一。72B 模型在編碼和數學等方面顯示了顯著的改進。此模型還提供多語言支持,涵蓋超過 29 種語言,包括中文和英文。它在遵循指令、理解結構化數據以及生成結構化輸出(特別是 JSON 格式)方面顯示了顯著增強。...
總上下文:
33K
最大輸出:
4K
輸入:
$
0.59
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.59
/ M Tokens

Qwen
Text Generation
Qwen2.5-7B-Instruct
Qwen2.5-7B-Instruct 是阿里雲發布的最新大型語言模型系列之一。這款 7B 模型在編程和數學等領域展示了顯著的改進。該模型還提供多語言支持,涵蓋超過 29 種語言,包括中文、英文和其他語言。模型在指令跟隨、理解結構化數據和生成結構化輸出方面,尤其是 JSON,顯示出顯著的提升。...
總上下文:
33K
最大輸出:
4K
輸入:
$
0.05
/ M Tokens
輸入:
$
text
/ M Tokens
輸出:
$
0.05
/ M Tokens

