最先進的

人工智能模型庫

一個 API 可以運行 200 多個尖端 AI 模型,並在幾秒鐘內部署

最先進的

人工智能模型庫

一個 API 可以運行 200 多個尖端 AI 模型,並在幾秒鐘內部署

最先進的

人工智能模型庫

一個 API 可以運行 200 多個尖端 AI 模型,並在幾秒鐘內部署

MiniMaxAI

Text Generation

MiniMax-M2.1

發行日期:2025年12月23日

MiniMax-M2.1 是一個開源的大型語言模型,專為智能能力而優化,擅長於編碼、工具使用、遵循指令和長期規劃。它支持多語言軟體開發和複雜的多步驟工作流程,在 SWE-bench Verified 上取得 74.0 的成績,並在多語言場景中優於 Claude Sonnet 4.5。...

總上下文:

197K

最大輸出:

131K

輸入:

$

0.29

/ M Tokens

輸出:

$

1.2

/ M Tokens

Z.ai

Text Generation

GLM-4.7

發行日期:2025年12月23日

GLM-4.7 是智谱的新一代旗艦模型,總參數量達 355B,啟動參數達 32B,在一般對話、推理和代理能力方面提供了全面升級。回應更加簡潔自然;書寫更具沉浸感;工具調用指令的執行更為可靠;以及產品和代理編碼的前端潤色——與長期任務完成效率一起——進一步得到改善。...

總上下文:

205K

最大輸出:

205K

輸入:

$

0.42

/ M Tokens

輸出:

$

2.2

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.2

發行日期:2025年12月4日

DeepSeek-V3.2 是一個模型,結合了高計算效率與卓越的推理能力和代理性能。其方法建立在三個關鍵技術突破上:DeepSeek Sparse Attention (DSA),這是一種高效的注意力機制,大幅降低計算複雜性,並保持模型性能,特別針對長上下文場景進行優化;可擴展強化學習框架,實現與 GPT-5 相媲美的性能以及與 Gemini-3.0-Pro 高計算版本相當的推理能力;以及大規模代理任務綜合管道,將推理整合到工具使用場景中,提升在複雜互動環境中的合規性和概括性。該模型在 2025 年國際數學奧林匹克 (IMO) 和國際信息學奧林匹克 (IOI) 中獲得金牌成績。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.27

/ M Tokens

輸出:

$

0.42

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.2-Exp

發行日期:2025年10月10日

DeepSeek-V3.2-Exp 是 DeepSeek 模型的實驗版本,建構於 V3.1-Terminus 上。它首次推出 DeepSeek 稀疏注意力 (DSA),以更快、更高效地進行長文本的訓練和推理。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.27

/ M Tokens

輸出:

$

0.41

/ M Tokens

Z.ai

Text Generation

GLM-4.6V

發行日期:2025年12月8日

GLM-4.6V 在同参数规模的模型中实现了视觉理解的SOTA(State-of-the-Art)精度。这是第一次在视觉模型结构中原生整合了功能调用能力,弥合了“视觉感知”和“可执行行动”之间的差距。这为现实商业场景中的多模态代理提供了统一的技术基础。此外,视觉上下文窗口已扩展至128k,支持长视频流处理和高分辨率多图像分析。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.3

/ M Tokens

輸出:

$

0.9

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1-Terminus

發行日期:2025年9月29日

DeepSeek-V3.1-Terminus 是一個更新的版本,基於 V3.1 的強項,同時解決了用戶的重要反饋。它改進了語言一致性,減少了中英文混合文本和偶爾出現的異常字符。還升級了更強大的代碼代理和搜索代理的性能。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.27

/ M Tokens

輸出:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1

發行日期:2025年8月25日

DeepSeek-V3.1 是一種混合模型,支持思考模式和非思考模式。通過後期訓練優化,模型在工具使用和代理任務中的性能顯著提高。DeepSeek-V3.1-Think 達到了與 DeepSeek-R1-0528 相當的答案質量,同時響應速度更快。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.27

/ M Tokens

輸出:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3

發行日期:2024年12月26日

Deepseek-V3-0324 在多個關鍵方面顯示出顯著的改進,相較於其前身 DeepSeek-V3,包括推理性能的大幅提升、更強的前端開發技能以及更智慧的工具使用能力。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.25

/ M Tokens

輸出:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1

發行日期:2025年5月28日

DeepSeek-R1-0528 是一款升級模型,顯示了在處理複雜推理任務方面的顯著改進,還提供了降低幻覺率、增強函數調用支持和更好的氛圍編碼體驗。其性能可媲美 O3 和 Gemini 2.5 Pro。...

總上下文:

164K

最大輸出:

164K

輸入:

$

0.5

/ M Tokens

輸出:

$

2.18

/ M Tokens

MiniMaxAI

Text Generation

MiniMax-M2

發行日期:2025年10月28日

MiniMax-M2 為代理重新定義了效率。它是一個緊湊、快速且具成本效益的 MoE 模型(2300 億個總參數,其中 100 億個活動參數)專為在編程和代理任務中實現精英性能而建造,同時保持強大的通用智能。僅使用 100 億個激活參數,MiniMax-M2 提供當今領先模型預期的高級端到端工具使用性能,但在一種簡化的外形中,使部署和擴展比以往更容易。...

總上下文:

197K

最大輸出:

131K

輸入:

$

0.3

/ M Tokens

輸出:

$

1.2

/ M Tokens

Qwen

Text Generation

Qwen3-VL-32B-Instruct

發行日期:2025年10月21日

Qwen3-VL 是 Qwen3 系列中的視覺-語言模型,在各種視覺-語言(VL)基準測試中達到了最先進的(SOTA)性能。該模型支持高達百萬像素級的高分辨率圖像輸入,並擁有強大的通用視覺理解、多語種 OCR、細粒度視覺對位和視覺對話能力。作為 Qwen3 系列的一部分,它繼承了一個強大的語言基礎,使其能夠理解和執行複雜的指令。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.2

/ M Tokens

輸出:

$

0.6

/ M Tokens

Qwen

Text Generation

Qwen3-VL-32B-Thinking

發行日期:2025年10月21日

Qwen3-VL-Thinking 是 Qwen3-VL 系列的一個版本,專門優化用於複雜的視覺推理任務。它融入了“思考模式”,使得它能夠在給出最終答案之前生成詳細的中間推理步驟(連環思考)。這種設計顯著提升了模型在視覺問答(VQA)以及其他需要多步邏輯、規劃和深入分析的視覺-語言任務中的表現。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.2

/ M Tokens

輸出:

$

1.5

/ M Tokens

Qwen

Text Generation

Qwen3-VL-8B-Instruct

發行日期:2025年10月15日

Qwen3-VL-8B-Instruct 是 Qwen3 系列的視覺語言模型,顯示出在一般視覺理解、視覺為中心的對話和圖像中的多語種文字識別方面的強大能力。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.18

/ M Tokens

輸出:

$

0.68

/ M Tokens

Qwen

Text Generation

Qwen3-VL-8B-Thinking

發行日期:2025年10月15日

Qwen3-VL-8B-Thinking 是 Qwen3 系列中的視覺-語言模型,優化於需要複雜推理的場景。在此思考模式中,此模型在給出最終答案前會執行逐步思考和推理。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.18

/ M Tokens

輸出:

$

2.0

/ M Tokens

Qwen

Text Generation

Qwen3-VL-235B-A22B-Instruct

發行日期:2025年10月4日

Qwen3-VL-235B-A22B-Instruct 是一個擁有 235B 參數的專家組合(MoE)視覺-語言模型,具有 22B 活躍參數。它是經過指令調整的 Qwen3-VL-235B-A22B 版本,並且針對聊天應用程式進行了調整。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.3

/ M Tokens

輸出:

$

1.5

/ M Tokens

Qwen

Text Generation

Qwen3-VL-235B-A22B-Thinking

發行日期:2025年10月4日

Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 系列模型之一,這是一個增強推理的 Thinking 版本,在多模式推理基準測試中達到最先進 (SOTA) 的成果,並在 STEM、數學、因果分析以及邏輯的、基於證據的回答方面表現卓越。它具有一個專家混合 (MoE) 架構,擁有 235B 的總參數以及 22B 的活躍參數。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.45

/ M Tokens

輸出:

$

3.5

/ M Tokens

Qwen

Text Generation

Qwen3-VL-30B-A3B-Instruct

發行日期:2025年10月5日

Qwen3-VL 系列提供卓越的文本理解和生成、更深層的視覺感知與推理、擴展的上下文長度、增強的空間與視頻動態理解能力,以及更強的代理互動能力。提供密集型和 MoE 架構,從邊緣到雲端可擴展,並具有指令和推理增強的思考版本。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.29

/ M Tokens

輸出:

$

1.0

/ M Tokens

Qwen

Text Generation

Qwen3-VL-30B-A3B-Thinking

發行日期:2025年10月11日

Qwen3-VL 系列提供卓越的文本理解和生成、更深層的視覺感知與推理、擴展的上下文長度、增強的空間與視頻動態理解能力,以及更強的代理互動能力。提供密集型和 MoE 架構,從邊緣到雲端可擴展,並具有指令和推理增強的思考版本。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.29

/ M Tokens

輸出:

$

1.0

/ M Tokens

Moonshot AI

Text Generation

Kimi-K2-Thinking

發行日期:2025年11月7日

Kimi K2 思考是最新和最有能力的開源思考模型版本。從 Kimi K2 開始,我們將其構建為一個逐步推理並動態調用工具的思考代理。它通過顯著提升多步推理深度和在 200-300 次連續調用中保持穩定的工具使用,在人類最後考試(HLE)、BrowseComp 和其他基準測試上創造了新的最先進水平。與此同時,K2 思考是一個原生的 INT4 量化模型,具備 262k 文本窗戶,實現了推理延遲和 GPU 記憶體使用的無損減少。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.55

/ M Tokens

輸出:

$

2.5

/ M Tokens

Moonshot AI

Text Generation

Kimi-K2-Instruct-0905

發行日期:2025年9月8日

Kimi K2-Instruct-0905,是一種最先進的專家混合(MoE)語言模型,是Kimi K2的最新和最強大的版本。主要功能包括增強的編碼能力,尤其是前端和工具調用,上下文長度擴展至256k tokens,以及與各種代理框架的改進整合。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.4

/ M Tokens

輸出:

$

2.0

/ M Tokens

OpenAI

Text Generation

gpt-oss-120b

發行日期:2025年8月13日

gpt-oss 系列是 OpenAI 的開源權重模型,旨在用於強大的推理、代理任務和多功能開發者使用案例。gpt-oss-120b 用於生產、通用、高推理使用案例,可適用於單個 80GB GPU(如 NVIDIA H100 或 AMD MI300X)。...

總上下文:

131K

最大輸出:

8K

輸入:

$

0.05

/ M Tokens

輸出:

$

0.45

/ M Tokens

OpenAI

Text Generation

gpt-oss-20b

發行日期:2025年8月13日

gpt-oss 系列是 OpenAI 的開源權重模型,旨在進行強大的推理、主動任務和多功能的開發者使用案例。gpt-oss-20b 用於較低延遲、本地或專門的使用案例。...

總上下文:

131K

最大輸出:

8K

輸入:

$

0.04

/ M Tokens

輸出:

$

0.18

/ M Tokens

Z.ai

Text Generation

GLM-4.6

發行日期:2025年10月4日

與 GLM-4.5 相較,GLM-4.6 帶來了幾個關鍵改進,包括將上下文窗口延伸至 200K 令牌、更優越的編碼性能、先進的推理、能力更強的代理以及改進的寫作。...

總上下文:

205K

最大輸出:

205K

輸入:

$

0.39

/ M Tokens

輸出:

$

1.9

/ M Tokens

Z.ai

Text Generation

GLM-4.5-Air

發行日期:2025年7月28日

GLM-4.5 系列模型是為智能代理設計的基礎模型。GLM-4.5-Air 採用更緊湊的設計,具有 1060 億個總參數和 120 億個活動參數。它也是一個混合推理模型,提供思考和非思考模式。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.86

/ M Tokens

Z.ai

Text Generation

GLM-4.5V

發行日期:2025年8月13日

作為GLM-V系列模型的一部分,GLM-4.5V基於ZhipuAI的基礎模型GLM-4.5-Air,在圖像、視頻和文檔理解以及GUI代理操作等任務上達到了SOTA表現。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.86

/ M Tokens

inclusionAI

Text Generation

Ling-flash-2.0

發行日期:2025年9月18日

Ling-flash-2.0 是來自 inclusionAI 的一個語言模型,總共有 1000 億個參數,其中每個詞元啟用 61 億個(不包括嵌入的部分為 48 億個)。作為 Ling 2.0 架構系列的一部分,它被設計為一個輕量級但強大的專家混合模型 (Mixture-of-Experts, MoE 模型)。它旨在提供可與 40B 級密集模型和其他更大 MoE 模型相媲美甚至超越的性能,但具有顯著較小的有效參數數量。這個模型代表了一種策略,專注於通過極端的架構設計和訓練方法來實現高性能和效率...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

inclusionAI

Text Generation

Ling-mini-2.0

發行日期:2025年9月10日

Ling-mini-2.0 是一個小型但高性能的大型語言模型,基於 MoE 架構構建。它總共有 160 億個參數,但每個 token 僅激活 14 億個參數(非嵌入 7.89 億),從而實現極快的生成速度。由於高效的 MoE 設計和大規模高質量的訓練數據,儘管僅激活了 14 億個參數,Ling-mini-2.0 仍能提供頂級的下游任務性能,可與小於 100 億的密集 LLMs 和更大的 MoE 模型相媲美。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.07

/ M Tokens

輸出:

$

0.28

/ M Tokens

inclusionAI

Text Generation

Ring-flash-2.0

發行日期:2025年9月29日

Ring-flash-2.0 是一個高效能的思考模型,基於 Ling-flash-2.0-base 深度優化。它是一個專家混合(MoE)模型,總共有 1000 億個參數,但每次推斷僅激活 6.1 億個。該模型利用自主開發的 'icepop' 演算法來解決 MoE LLMs 在強化學習(RL)中的訓練不穩定性挑戰,從而在延長的 RL 訓練週期中不斷提升其複雜推理能力。Ring-flash-2.0 在包括數學競賽、代碼生成和邏輯推理等挑戰性基準上顯示出重大突破。其性能超越了參數 under 40B 的 SOTA 密集模型,並與較大的開源重量 MoE 模型及封閉來源高效能思考模型 APIs 相媲美。更令人驚訝的是,儘管 Ring-flash-2.0 主要用於複雜推理,它在創意寫作方面也顯示出強大的能力。由於其高效的架構,它實現了高速推斷,大幅降低了高併發場景中思考模型的推斷成本。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Tencent

Text Generation

Hunyuan-MT-7B

發行日期:2025年9月18日

Hunyuan 翻譯模型由翻譯模型 Hunyuan-MT-7B 和合奏模型 Hunyuan-MT-Chimera 組成。Hunyuan-MT-7B 是一個具有 70 億參數的輕量級翻譯模型,用於將源文本翻譯成目標語言。該模型支持包括中國五個少數民族語言在內的 33 種語言之間的相互翻譯。在 WMT25 機器翻譯競賽中,Hunyuan-MT-7B 在參加的 31 個語言類別中贏得了 30 個第一名,展示了其出色的翻譯能力。對於翻譯任務,騰訊 Hunyuan 提出了一個全面的訓練框架,覆蓋預訓練、監督微調、翻譯增強和合奏優化,在相似規模的模型中實現了最先進的性能。該模型計算效率高且易於部署,適合多種應用場景。...

總上下文:

33K

最大輸出:

33K

輸入:

$

0.0

/ M Tokens

輸出:

$

0.0

/ M Tokens

Qwen

Text Generation

Qwen3-Omni-30B-A3B-Thinking

發行日期:2025年10月4日

Qwen3-Omni-30B-A3B-Thinking 是 Qwen3-Omni 全模态 模型 的核心 "Thinker" 组件。它专门用于处理多模态输入,包括文本、音频、图像和视频,并执行复杂的思维链推理。作为系统的推理大脑,此 模型 将所有输入统一到一个通用表征空间中进行理解和分析,但其输出仅为文本。此设计使其擅长解决需要深度思考和跨模态理解的复杂问题,例如以图像呈现的数学问题,从而成为整个 Qwen3-Omni 架构强大认知能力的关键。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.1

/ M Tokens

輸出:

$

0.4

/ M Tokens

Qwen

Text Generation

Qwen3-Next-80B-A3B-Instruct

發行日期:2025年9月18日

Qwen3-Next-80B-A3B-Instruct 是由阿里巴巴的 Qwen 团队发布的新一代基础模型。它建立在全新的 Qwen3-Next 架构上,为终极训练和推理效率而设计。該模型融合了創新功能,如混合注意力机制 (Gated DeltaNet 和 Gated Attention)、高稀疏性专家混合 (MoE) 结构,以及各种稳定性优化。作为一个具有 800 亿参数的稀疏模型,它在推理过程中每个 token 仅启用约 30 亿参数,从而显著降低了计算成本,并在超过 32K token 的长上下文任务中提供了超过 Qwen3-32B 模型 10 倍的吞吐量。这是一个经过指令调优的版本,针对通用任务进行了优化,但不支持“思考”模式。在性能方面,它在某些基准测试中与 Qwen 的旗舰模型 Qwen3-235B 相当,在超长上下文场景中表现出显著优势。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.14

/ M Tokens

輸出:

$

1.4

/ M Tokens

Qwen

Text Generation

Qwen3-Next-80B-A3B-Thinking

發行日期:2025年9月25日

Qwen3-Next-80B-A3B-Thinking 是阿里巴巴的 Qwen 團隊推出的新一代基礎模型,專為複雜推理任務而設計。它基於創新的 Qwen3-Next 架構,結合了混合注意力機制(Gated DeltaNet 和 Gated Attention)與高稀疏度的專家混合(MoE)結構,以達到最終的訓練和推理效率。作為一個 800 億參數的稀疏模型,它在推理過程中僅激活大約 30 億參數,顯著降低了計算成本,並在超過 32K tokens 的長上下文任務中,比 Qwen3-32B 模型的吞吐量高出10倍以上。這個“Thinking”版本針對於要求嚴格的多步驟問題進行了優化,比如數學證明、代碼合成、邏輯分析和智能規劃,它預設輸出結構化的“思考”軌跡。在性能方面,它超越了成本更高的模型,如 Qwen3-32B-Thinking,並在多個基準測試中優於 Gemini-2.5-Flash-Thinking。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Qwen

Text Generation

Qwen3-Omni-30B-A3B-Captioner

發行日期:2025年10月4日

Qwen3-Omni-30B-A3B-Captioner 是來自阿里巴巴 Qwen 團隊的視覺語言模型 (VLM),屬於 Qwen3 系列的一部分。它是專為生成高質量、詳細和準確的圖像標註而設計的。基於 30B 總參數專家混合 (MoE) 架構,該模型可以深入理解圖像內容並將其轉換為豐富的自然語言文本。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.1

/ M Tokens

輸出:

$

0.4

/ M Tokens

Qwen

Text Generation

Qwen3-Omni-30B-A3B-Instruct

發行日期:2025年10月4日

Qwen3-Omni-30B-A3B-Instruct 是阿里巴巴 Qwen 團隊最新 Qwen3 系列的一員。它是一種專家混合(MoE)模型,擁有 300 億個總參數和 30 億個活躍參數,可以有效降低推理成本,同時保持強大的性能。該模型在高質量、多來源和多語言的數據上進行了訓練,顯示出在多語種對話、代碼、數學等基本能力方面的出色表現。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.1

/ M Tokens

輸出:

$

0.4

/ M Tokens

Qwen

Text Generation

Qwen3-Coder-480B-A35B-Instruct

發行日期:2025年7月31日

Qwen3-Coder-480B-A35B-Instruct 是阿里巴巴迄今發布的最具代理性的代碼模型。它是一個專家混合(MoE)模型,擁有4800億個總參數和350億個激活參數,在效率和性能之間取得了平衡。該模型本地支持256K(約262,144)個代幣上下文長度,通過諸如YaRN的外推方法可以擴展至100萬個代幣,使其能夠處理倉庫級代碼庫和複雜的編程任務。Qwen3-Coder 專門為代理性編碼工作流程設計,不僅生成代碼,還能自主與開發工具和環境交互以解決複雜問題。它在各種編碼和代理基準中達到了開放模型中的最新技術水平,性能可與領先模型如 Claude Sonnet 4 相媲美。阿里巴巴還開源了 Qwen Code,一個設計用來充分釋放其強大代理性編碼能力的命令行工具,與模型一同發布。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.25

/ M Tokens

輸出:

$

1.0

/ M Tokens

Qwen

Text Generation

Qwen3-Coder-30B-A3B-Instruct

發行日期:2025年8月1日

Qwen3-Coder-30B-A3B-Instruct 是阿里巴巴的 Qwen 團隊開發的 Qwen3 系列中的一款代碼模型。作為一個精簡和優化的模型,它在專注於增強編碼能力的同時,保持了出色的性能和效率。在複雜任務如代理編碼、代理瀏覽器使用和其他基礎編碼任務中,該模型在開源模型中展現了顯著的性能優勢。該模型本地支持 256K 個 tokens 的長上下文,可以擴展到 1M 個 tokens,從而實現更佳的倉庫規模理解和處理。此外,它為像 Qwen Code 和 CLINE 這樣的平台提供了強大的代理編碼支持,並具有專門設計的功能調用格式。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.07

/ M Tokens

輸出:

$

0.28

/ M Tokens

Qwen

Text Generation

Qwen3-30B-A3B-Instruct-2507

發行日期:2025年7月30日

Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 非思考模式的更新版本。它是一個專家混合 (MoE) 模型,擁有305億個總參數和33億個啟用參數。此版本具有關鍵增強功能,包括在指令遵循、邏輯推理、文本理解、數學、科學、編碼和工具使用等常規能力方面的顯著改進。它還在多語言的長尾知識涵蓋方面顯示出重大提升,並在主觀和開放性任務中明顯更好地符合用戶偏好,使得回應更加有幫助且生成的文本質量更高。此外,其長文本理解能力已增強至256K。此模型僅支持非思考模式,且不會在輸出中生成 `<think></think>` 區塊。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.09

/ M Tokens

輸出:

$

0.3

/ M Tokens

Qwen

Text Generation

Qwen3-30B-A3B-Thinking-2507

發行日期:2025年7月31日

Qwen3-30B-A3B-Thinking-2507 是阿里巴巴 Qwen 團隊發布的 Qwen3 系列中最新的思考模型。作為一個專家混合體系(MoE)模型,它擁有305億個總參數和33億個活躍參數,專注於提高處理複雜任務的能力。該模型在推理任務上表現出顯著的改進,包括邏輯推理、數學、科學、編碼和通常需要人類專業知識的學術基準測試。它還在指令跟隨、工具使用、文本生成和符合人類偏好等一般能力方面顯示出顯著更好的性能。該模型本地支持256K長上下文理解能力,並且可以擴展到100萬個標記。此版本專門為“思考模式”設計,以通過逐步推理解決極其複雜的問題,並在代理能力方面也表現出色。...

總上下文:

262K

最大輸出:

131K

輸入:

$

0.09

/ M Tokens

輸出:

$

0.3

/ M Tokens

Qwen

Text Generation

Qwen3-235B-A22B-Instruct-2507

發行日期:2025年7月23日

Qwen3-235B-A22B-Instruct-2507是來自阿里巴巴雲的Qwen團隊開發的Qwen3系列中的旗艦專家混合(MoE)大型語言模型。該模型總共擁有2350億個參數,每次傳遞啟用了220億個參數。它作為Qwen3-235B-A22B無思維模式的更新版本發布,具有顯著增強的通用能力,如指令遵循、邏輯推理、文本理解、數學、科學、編碼和工具使用。此外,該模型在多種語言的長尾知識覆蓋方面提供了實質性提升,並在主觀和開放式任務中的用戶偏好對齊方面顯著改善,能夠提供更有用的回應和更高質量的文本生成。值得注意的是,它原生支持256K(262,144個標記)上下文窗口,大大增強了其長上下文理解的能力。此版本專門支持無思維模式,不生成<think>塊,旨在為直接問答和知識檢索這類任務提供更高效和精確的回應。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.09

/ M Tokens

輸出:

$

0.6

/ M Tokens

Qwen

Text Generation

Qwen3-235B-A22B-Thinking-2507

發行日期:2025年7月28日

Qwen3-235B-A22B-Thinking-2507 是阿里巴巴的 Qwen 團隊開發的 Qwen3 大型語言模型系列的成員,專門用於進行高度複雜的推理任務。模型基於專家合併(MoE)架構構建,具有 2350 億個總參數和每個代幣約 220 億個激活參數,該設計在保持強大性能的同時提高計算效能。作為專門的‘思維’模型,它在需要人類專業知識的任務上表現顯著提升,例如邏輯推理、數學、科學、編碼和學術基準,在開源思維模型中實現了最先進的結果。此外,模型具備增強的一般能力,如指令跟隨、工具使用和文本生成,並且原生支持 256K 長上下文理解能力,使其理想適用於需要深度推理和處理長文檔的方案。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.13

/ M Tokens

輸出:

$

0.6

/ M Tokens

StepFun

Text Generation

step3

發行日期:2025年8月6日

Step3 是從 StepFun 開發的一個尖端多模態推理模型。它建立在一個專家混合(MoE)架構上,總參數為 321B,活動參數為 38B。該模型被設計成端到端以在提供高級性能的同時最小化解碼成本。通過多矩陣因子化注意(MFA)和注意-FFN 分解(AFD)協同設計,Step3 在旗艦和低端加速器上均保持卓越的效率。在預訓練期間,Step3 處理了超過 20T 的文本標記和 4T 的圖像文本混合標記,涵蓋了十多種語言。該模型在開源模型的各種基準測試中,包括數學、代碼和多模態性,已達到了先進的性能。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.57

/ M Tokens

輸出:

$

1.42

/ M Tokens

ByteDance

Text Generation

Seed-OSS-36B-Instruct

發行日期:2025年9月4日

Seed-OSS 是由字节跳动 Seed 团队开发的一系列开源大型语言模型,旨在实现强大的长文本处理、推理、代理能力和通用能力。在该系列中,Seed-OSS-36B-Instruct 是一个具有 360 亿参数的指令调优模型,其原生支持超长上下文长度,能够在单次传递中处理大量文档或复杂的代码库。該模型經過特別優化,用於推理、代碼生成和代理任務(如工具使用),同時保持平衡且優秀的通用能力。该模型的关键特性之一是“思维预算”功能,允许用户根据需要灵活调整推理长度,从而在实际应用中有效提高推理效率。...

總上下文:

262K

最大輸出:

262K

輸入:

$

0.21

/ M Tokens

輸出:

$

0.57

/ M Tokens

Z.ai

Text Generation

GLM-4.1V-9B-Thinking

發行日期:2025年7月4日

GLM-4.1V-9B-Thinking 是一個開源的視覺語言模型 (VLM),由智譜AI和清華大學的KEG實驗室聯合發布,旨在推進通用多模態推理。在GLM-4-9B-0414基礎模型的基礎上構建,它引入了一種“思考範式”並利用課程採樣增強學習 (RLCS) 來顯著提升其在複雜任務中的能力。作為一個9B參數模型,它在類似規模的模型中達到最先進的性能,其性能可媲美甚至超越了在18項不同基準上更大的72B參數Qwen-2.5-VL-72B。該模型在多樣化的任務中表現突出,包括STEM問題解決、影片理解和長文檔理解,並且能夠處理高達4K分辨率和任意長寬比的圖像。...

總上下文:

66K

最大輸出:

66K

輸入:

$

0.035

/ M Tokens

輸出:

$

0.14

/ M Tokens

BAIDU

Text Generation

ERNIE-4.5-300B-A47B

發行日期:2025年7月2日

ERNIE-4.5-300B-A47B 是由百度基於專家混合(MoE)架構開發的大型語言模型。該模型總共有 3000 億參數,但在推理過程中每個標記僅啟用 470 億參數,從而在強大性能與計算效率之間取得平衡。作為 ERNIE 4.5 系列的核心模型之一,它在 PaddlePaddle 深度學習框架上進行訓練,在文本理解、生成、推理和編碼等任務中展現出卓越的能力。這個模型利用創新的多模態異構 MoE 預訓練方法,通過對文本和視覺模態的聯合訓練,有效提升其整體能力,在指令遵循和世界知識記憶方面表現出色。百度已經開源此模型和該系列中的其他模型,以促進人工智能技術的研究和應用。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.28

/ M Tokens

輸出:

$

1.1

/ M Tokens

Tencent

Text Generation

Hunyuan-A13B-Instruct

發行日期:2025年6月30日

Hunyuan-A13B-Instruct 僅啟用其 80B 參數中的 13B,但在主流基準測試中卻能與更大型的 LLMs 匹敵。它提供混合推理:低延遲的「快速」模式或高精度的「慢速」模式,可根據需求切換。原生 256K 代幣上下文讓它能在不降低性能的情況下處理數本長的文件。代理技能經過調整,以便在 BFCL-v3、τ-Bench 和 C3-Bench 中保持領先,成為出色的自主助理骨幹。分組查詢注意力和多格式量化提供了輕量記憶、高效 GPU 推理,適合實際應用,並內建多語言支持和強大的安全對齊,適用於企業級應用。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Moonshot AI

Text Generation

Kimi-K2-Instruct

發行日期:2025年7月13日

Kimi K2 是一個專家混合(Mixture-of-Experts,MoE)基礎模型,擁有卓越的編碼和代理功能,具有 1 兆個總參數和 320 億個激活參數。在涵蓋一般知識推理、程式設計、數學和代理相關任務的基準評估中,K2 模型超過了其他領先的開源模型...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.58

/ M Tokens

輸出:

$

2.29

/ M Tokens

Moonshot AI

Text Generation

Kimi-Dev-72B

發行日期:2025年6月19日

Kimi-Dev-72B 是一個新的開源編碼大型語言模型,在 SWE-bench Verified 上達到了 60.4%,在開源模型中設立了最新的成果。優化通過大規模強化學習,它在 Docker 中自主修補實際代碼庫,並且只有當完整的測試套件通過時才獲得獎勵。這確保了模型提供的解決方案是正確、穩健且實用的,符合現實世界的軟體工程標準。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.29

/ M Tokens

輸出:

$

1.15

/ M Tokens

MiniMaxAI

Text Generation

MiniMax-M1-80k

發行日期:2025年6月17日

MiniMax-M1 是一個開放權重、大型混合注意力推理模型,具有456 B參數,每個token激活45.9 B。它本地支持1 M-token上下文,閃電注意力節省75% FLOPs,與DeepSeek R1在100 K tokens相比。並利用MoE架構。高效的RL訓練與CISPO和混合設計在長輸入推理和實際軟體工程任務上達到最先進的性能。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.55

/ M Tokens

輸出:

$

2.2

/ M Tokens

Qwen

Text Generation

Qwen3-30B-A3B

發行日期:2025年4月30日

Qwen3-30B-A3B 是 Qwen 系列中最新的大型語言模型,採用專家混合(Mixture-of-Experts, MoE)架構,具有 30.5B 總參數和 3.3B 激活參數。此模型獨特地支持在思考模式(用於複雜的邏輯推理、數學和編程)和非思考模式(用於高效的通用對話)之間無縫切換。它顯示出顯著增強的推理能力,在創意寫作、角色扮演和多輪對話中展現出更高的人類偏好。該模型在代理能力中表現優異,可準確整合外部工具,並支持超過 100 種語言和方言,具備強大的多語言指令跟隨和翻譯能力。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.09

/ M Tokens

輸出:

$

0.45

/ M Tokens

Qwen

Text Generation

Qwen3-32B

發行日期:2025年4月30日

Qwen3-32B 是最新的 Qwen 系列中的大型語言模型,擁有 32.8B 個參數。此模型獨特地支持在思考模式(用於複雜邏輯推理、數學和編碼)和非思考模式(用於高效的通用對話)之間無縫切換。它顯著地增強了推理能力,超越了先前的 QwQ 和 Qwen2.5 指令模型在數學、代碼生成和常識邏輯推理方面的表現。模型在人類偏好對齊方面表現出色,適用於創意寫作、角色扮演和多輪對話。此外,它支持超過 100 種語言和方言,具備強大的多語言指令跟隨和翻譯能力。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Qwen

Text Generation

Qwen3-14B

發行日期:2025年4月30日

Qwen3-14B 是 Qwen 系列中最新的大型語言模型,擁有 148 億個參數。這個模型獨特地支持在思考模式(用於複雜的邏輯推理、數學和編碼)和非思考模式(用於高效、通用的對話)之間的無縫切換。它顯示了顯著增強的推理能力,超越了之前的 QwQ 和 Qwen2.5 指令模型的數學、代碼生成和常識邏輯推理。模型在人類偏好對齊方面表現卓越,適用於創意寫作、角色扮演和多輪對話。此外,它支持超過 100 種語言和方言,具有強大的多語言指令遵循和翻譯能力...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.07

/ M Tokens

輸出:

$

0.28

/ M Tokens

Qwen

Text Generation

Qwen3-8B

發行日期:2025年4月30日

Qwen3-8B 是 Qwen 系列中最新的大型語言模型,擁有 8.2B 參數。此模型獨特地支持在思考模式(用於複雜的邏輯推理、數學和編碼)和非思考模式(用於高效、通用的對話)之間無縫切換。它在推理能力上顯著增強,超越了以往的 QwQ 和 Qwen2.5 說明模型,在數學、代碼生成和常識邏輯推理方面都有優異表現。這個模型在創作寫作、角色扮演和多回合對話的人類偏好對齊方面表現卓越。此外,它支持超過 100 種語言和方言,並具有強大的多語言指令遵循和翻譯能力。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.06

/ M Tokens

輸出:

$

0.06

/ M Tokens

Z.ai

Text Generation

GLM-Z1-32B-0414

發行日期:2025年4月18日

GLM-Z1-32B-0414 是具有深度思考能力的推理模型。此模型是基於 GLM-4-32B-0414 通過冷啟動和擴展強化學習開發的,並在涉及數學、代碼和邏輯的任務上進行進一步訓練。與基礎模型相比,GLM-Z1-32B-0414 在數學能力和解決複雜任務的能力上有顯著提高。在訓練過程中,團隊還引入了基於成對排序反饋的一般強化學習,進一步增強了模型的通用能力。儘管只有 32B 的參數,但其在某些任務上的表現可與擁有 671B 參數的 DeepSeek-R1 相媲美。通過在 AIME 24/25、LiveCodeBench、和 GPQA 等基準上的評估,該模型展現了強大的數學推理能力,可以支持更廣泛複雜任務的解決方案。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Z.ai

Text Generation

GLM-4-32B-0414

發行日期:2025年4月18日

GLM-4-32B-0414 是 GLM 系列中具有 320 億參數的新一代模型。其性能可與 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美,並支持非常用戶友好的本地部署功能。GLM-4-32B-Base-0414 在 15T 的高品質數據上進行了預訓練,包括大量推理型合成數據,為後續強化學習擴展奠定了基礎。在後訓練階段,除了對話場景的人類偏好對齊外,團隊還使用拒絕採樣和強化學習等技術增強了模型在指令跟隨、工程代碼和函數調用方面的性能,增強了代理任務所需的基本能力。GLM-4-32B-0414 在工程代碼、Artifact 生成、函數調用、基於搜索的問答和報告生成等領域取得了良好效果。在多個基準測試中,其性能接近甚至超過了較大模型,如 GPT-4o 和 DeepSeek-V3-0324(671B)。...

總上下文:

33K

最大輸出:

33K

輸入:

$

0.27

/ M Tokens

輸出:

$

0.27

/ M Tokens

Z.ai

Text Generation

GLM-Z1-9B-0414

發行日期:2025年4月18日

GLM-Z1-9B-0414 是 GLM 系列中的一個小型模型,僅有 90 億個參數,保持了開源傳統,同時展現出令人驚訝的能力。儘管規模較小,GLM-Z1-9B-0414 仍然在數學推理和一般任務中表現出色。在同尺寸的開源模型中,其整體性能已經處於領先水平。研究團隊使用了與較大模型相同的一系列技術來訓練這個 9B 模型。尤其在資源受限的情境下,這個模型在效率和效能之間達到了優秀的平衡,為尋求輕量化部署的用戶提供了一個強大的選擇。該模型具備深度思考能力,並能透過 YaRN 技術處理長篇上下文,使其特別適合需要數學推理能力但計算資源有限的應用。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.086

/ M Tokens

輸出:

$

0.086

/ M Tokens

Z.ai

Text Generation

GLM-4-9B-0414

發行日期:2025年4月18日

GLM-4-9B-0414 是 GLM 系列中的小型模型,擁有 90 億個參數。此模型繼承了 GLM-4-32B 系列的技術特點,但提供了更輕量的部署選項。儘管規模較小,GLM-4-9B-0414 在代碼生成、網頁設計、SVG 圖形生成和基於搜索的寫作任務中仍顯示出卓越的能力。模型還支持函數調用功能,允許調用外部工具以擴展其功能範圍。該模型在資源受限的場景中展示了效率與效果之間的良好平衡,為需要在有限計算資源下部署 AI 模型的用戶提供了一個強大的選擇。與同系列的其他模型一樣,GLM-4-9B-0414 在各種基準測試中也表現出競爭力。...

總上下文:

33K

最大輸出:

33K

輸入:

$

0.086

/ M Tokens

輸出:

$

0.086

/ M Tokens

Qwen

Text Generation

Qwen2.5-VL-32B-Instruct

發行日期:2025年3月24日

Qwen2.5-VL-32B-Instruct 是由 Qwen 團隊發布的一個多模態大型語言模型,屬於 Qwen2.5-VL 系列。這個模型不僅能夠識別常見物體,還能高效地分析圖像中的文本、圖表、圖標、圖形和布局。它充當一個能夠推理和動態指導工具的視覺代理,能夠使用計算機和手機。此外,該模型還能準確地定位圖像中的物體,並為如發票和表格等數據生成結構化輸出。相比其前身 Qwen2-VL,此版本通過強化學習提升了數學和問題解決能力,其回應風格更符合人類偏好。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.27

/ M Tokens

輸出:

$

0.27

/ M Tokens

Qwen

Text Generation

QwQ-32B

發行日期:2025年3月6日

QwQ 是 Qwen 系列的推理模型。與傳統的指令調整模型相比,具備思考和推理能力的 QwQ 可以在下游任務中顯著增強性能,尤其是在解決難題方面。QwQ-32B 是中等大小的推理模型,能夠在與最先進的推理模型競爭中取得優勢,比如 DeepSeek-R1、o1-mini。該模型結合了 RoPE、SwiGLU、RMSNorm 以及注意力 QKV 偏差等技術,擁有 64 層和 40 個 Q 注意力頭(GQA 架構中 KV 有 8 個)。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.15

/ M Tokens

輸出:

$

0.58

/ M Tokens

Qwen

Text Generation

Qwen2.5-VL-72B-Instruct

發行日期:2025年1月28日

Qwen2.5-VL 是 Qwen2.5 系列中的一個視覺-語言模型,在多個方面顯示出顯著的增強:它具有強大的視覺理解能力,能夠在分析文本、圖表和圖像佈局的同時識別常見物體;它作為一個能夠推理並動態指導工具的視覺代理;它能夠理解超過1小時的視頻並捕捉關鍵事件;它能夠通過生成邊界框或點精確地定位圖像中的物體;並且它支持掃描數據(如發票和表格)的結構化輸出。此模型在各種基準測試,包括圖像、視頻和代理任務中,表現出色。...

總上下文:

131K

最大輸出:

4K

輸入:

$

0.59

/ M Tokens

輸出:

$

0.59

/ M Tokens

Qwen

Text Generation

Qwen2.5-VL-7B-Instruct

發行日期:2025年1月28日

Qwen2.5-VL 是 Qwen 系列的新成員,具備強大的視覺理解能力。它能夠分析圖像內的文字、圖表和佈局,理解長影片,並捕捉事件。它具備推理、操控工具、支持多格式對象定位和生成結構化輸出的能力。模型已針對影片理解中的動態解析度與幀率訓練進行了優化,並提升了視覺編碼器的效率。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.05

/ M Tokens

輸出:

$

0.05

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-32B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Qwen-32B 是一款基於 Qwen2.5-32B 的蒸餾模型。該模型使用由 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,並在數學、編程和推理任務方面展現了卓越的性能。它在包括 AIME 2024、MATH-500 和 GPQA Diamond 在內的各種基準測試中取得了令人印象深刻的成績,尤其是在 MATH-500 上達到 94.3% 的準確率,展示了其強大的數學推理能力。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.18

/ M Tokens

輸出:

$

0.18

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-14B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Qwen-14B 是一種基於 Qwen2.5-14B 的蒸餾模型。該模型使用 DeepSeek-R1 生成的 80 萬精選樣本進行微調,展示了強大的推理能力。它在各種基準測試中取得了令人印象深刻的結果,包括在 MATH-500 測試中達到 93.9% 的準確率,在 AIME 2024 測試中達到 69.7% 的通過率,以及在 CodeForces 上獲得 1481 的評分,展示了其在數學和編程任務中的強大能力。...

總上下文:

131K

最大輸出:

131K

輸入:

$

0.1

/ M Tokens

輸出:

$

0.1

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-7B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Qwen-7B 是基於 Qwen2.5-Math-7B 的蒸餾模型。該模型使用由 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出強大的推理能力。在多項基準測試中取得了驚人的成績,包括在 MATH-500 上達到 92.8% 的準確率,在 AIME 2024 上達到 55.5% 的通過率,以及在 CodeForces 上獲得 1189 的評分,展現出對於一個 7B 級別模型來說卓越的數學和編程能力。...

總上下文:

33K

最大輸出:

16K

輸入:

$

0.05

/ M Tokens

輸出:

$

0.05

/ M Tokens

Qwen

Text Generation

Qwen2.5-Coder-32B-Instruct

發行日期:2024年11月11日

Qwen2.5-Coder-32B-Instruct 是基於 Qwen2.5 開發的特定於代碼的大型語言模型。該模型經過 5.5 萬億個標記的訓練,在代碼生成、代碼推理和代碼修復方面取得了顯著的改進。它目前是最先進的開源代碼語言模型,擁有與 GPT-4 相媲美的編碼能力。不僅模型增強了編碼能力,還維持了數學和一般能力的優勢,並支持長文本處理。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.18

/ M Tokens

輸出:

$

0.18

/ M Tokens

Qwen

Text Generation

Qwen2.5-72B-Instruct-128K

發行日期:2024年9月18日

Qwen2.5-72B-Instruct 是阿里雲最新的大型語言模型系列之一。此 72B 模型在編碼和數學等領域顯示出顯著的改進。它支持長達 128K 令牌的上下文長度。該模型還提供多語言支持,涵蓋超過 29 種語言,包括中文、英文等。在指令跟隨、理解結構化數據和生成結構化輸出方面(尤其是 JSON 格式),它顯示出顯著的增強效果。...

總上下文:

131K

最大輸出:

4K

輸入:

$

0.59

/ M Tokens

輸出:

$

0.59

/ M Tokens

DeepSeek

Text Generation

deepseek-vl2

發行日期:2024年12月13日

DeepSeek-VL2 是一種混合專家 (MoE) 視覺語言模型,基於 DeepSeekMoE-27B 開發,採用稀疏激活的 MoE 架構,在使用僅 4.5B 活動參數的情況下實現卓越性能。該模型在各種任務中表現出色,包括視覺問答、光學字符識別、文件/表格/圖表理解和視覺定位。相比現有開源的密集模型和基於 MoE 的模型,它在使用相同或更少的活動參數下展現出具有競爭力或最先進的性能。...

總上下文:

4K

最大輸出:

4K

輸入:

$

0.15

/ M Tokens

輸出:

$

0.15

/ M Tokens

Qwen

Text Generation

Qwen2.5-72B-Instruct

發行日期:2024年9月18日

Qwen2.5-72B-Instruct 是阿里巴巴雲上最新的大型語言模型系列之一。72B 模型在編程和數學等領域顯示了顯著的改進。該模型還提供多語言支持,涵蓋包括中文和英文在內的 29 種以上的語言。在遵循指令、理解結構化數據和生成結構化輸出,特別是在 JSON 格式方面,它顯示了顯著的增強。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.59

/ M Tokens

輸出:

$

0.59

/ M Tokens

Qwen

Text Generation

Qwen2.5-32B-Instruct

發行日期:2024年9月19日

Qwen2.5-32B-Instruct是阿里雲發布的最新大型語言模型系列之一。這個32B模型在編碼和數學等領域展示了顯著的改進。模型還提供多語言支持,涵蓋超過29種語言,包括中文、英文等。它在遵從指令、理解結構化數據和生成結構化輸出(尤其是JSON格式)方面展示了顯著的提升。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.18

/ M Tokens

輸出:

$

0.18

/ M Tokens

Qwen

Text Generation

Qwen2.5-14B-Instruct

發行日期:2024年9月18日

Qwen2.5-14B-Instruct 是阿里雲推出的最新大型語言模型系列之一。這款 14B 模型在編程和數學等領域展示了顯著的改進。該模型還提供多語言支持,涵蓋超過 29 種語言,包括中文和英語。在遵循指令、理解結構化數據和生成結構化輸出方面,尤其是 JSON 格式中顯示了顯著的進步。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.1

/ M Tokens

輸出:

$

0.1

/ M Tokens

Qwen

Text Generation

Qwen2.5-7B-Instruct

發行日期:2024年9月18日

Qwen2.5-7B-Instruct 是阿里雲推出的最新大型語言模型系列之一。這個 7B 模型在編碼和數學等領域顯示了顯著的改進。該模型還提供多語言支持,涵蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出,特別是 JSON,方面顯示出顯著的增強。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.05

/ M Tokens

輸出:

$

0.05

/ M Tokens

Meta Llama

Text Generation

Meta-Llama-3.1-8B-Instruct

發行日期:2025年4月23日

Meta Llama 3.1 是由 Meta 開發的多語言大型語言模型系列,具有 8B、70B 和 405B 參數大小的預訓練和指令微調變體。這個 8B 指令微調模型優化於多語言對話使用情境,並在常見行業基準上超越許多現有的開源與封閉聊天模型。模型在超過 15 兆個公開資料的 token 上進行訓練,使用監督微調和具有人類反饋的強化學習等技術以增強其效用和安全性。Llama 3.1 支援文本和代碼生成,知識截止日期為 2023 年 12 月。...

總上下文:

33K

最大輸出:

4K

輸入:

$

0.06

/ M Tokens

輸出:

$

0.06

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-0120

發行日期:2025年1月20日

DeepSeek-R1 是一個由強化學習(RL)驅動的推理模型,旨在解決重複和可讀性問題。在引入 RL 之前,DeepSeek-R1 結合了冷啟動數據以進一步優化其推理性能。它在數學、代碼和推理任務中達到了可比擬 OpenAI-o1 的性能,並通過精心設計的訓練方法提升了整體效果。...

總上下文:

66K

最大輸出:

輸入:

$

0.58

/ M Tokens

輸出:

$

2.29

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Llama-70B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Llama-70B 是一個基於 Llama-3.3-70B-Instruct 的蒸餾模型。作為 DeepSeek-R1 系列的一部分,它通過 DeepSeek-R1 生成的樣本進行微調,在數學、編程和推理任務中表現出色。該模型在 AIME 2024、MATH-500 和 GPQA Diamond 等各種基準測試中取得了令人印象深刻的成績,展示了其強大的推理能力。...

總上下文:

33K

最大輸出:

輸入:

$

0.59

/ M Tokens

輸出:

$

0.59

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Llama-8B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Llama-8B 是基於 Llama-3.1-8B 的蒸餾模型。該模型使用 DeepSeek-R1 生成的樣本進行了微調,展示了強大的推理能力。它在各種基準測試中取得了顯著的結果,包括在 MATH-500 上達到 89.1% 的準確率,在 AIME 2024 上達到 50.4% 的通過率,以及在 CodeForces 上獲得 1205 的評分,顯示了作為一個 8B 規模模型的令人印象深刻的數學和編程能力。...

總上下文:

33K

最大輸出:

輸入:

$

0.06

/ M Tokens

輸出:

$

0.06

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-1.5B

發行日期:2025年1月20日

DeepSeek-R1-Distill-Qwen-1.5B 是一個基於 Qwen2.5-Math-1.5B 的蒸餾模型。該模型使用 DeepSeek-R1 生成的 800k 精選樣本進行了微調,並在各種基準測試中展現了不錯的性能。作為一個輕量級模型,它在 MATH-500 上達到了 83.9% 的準確率,在 AIME 2024 上達到了 28.9% 的通過率,在 CodeForces 上獲得了 954 的評級,展示出超越其參數規模的推理能力。...

總上下文:

33K

最大輸出:

輸入:

$

0.02

/ M Tokens

輸出:

$

0.02

/ M Tokens

Z.ai

Text Generation

GLM-Z1-Rumination-32B-0414

發行日期:2025年4月18日

GLM-Z1-Rumination-32B-0414 是一個具有反思能力的深層推理模型(以 OpenAI 的深度研究為基準)。與典型的深度思考模型不同的是,反思模型採用更長時間的深度思考來解決更開放性和複雜的問題(例如,撰寫 AI 發展兩個城市的比較分析及其未來發展計畫)。反思模型在其深度思考過程中整合了搜尋工具以處理複雜任務,並通過利用多種基於規則的獎勵來指導和擴展端到端強化學習進行訓練。Z1-Rumination 在研究型寫作和複雜檢索任務中顯示出顯著改進。模型支持完整的研究流程,包括“獨立提出問題—搜尋信息—建立分析—完成任務”,並預設包括搜尋、點擊、打開和完成等功能調用,使其能更好地處理需要外部信息的複雜問題。...

總上下文:

33K

最大輸出:

輸入:

$

0.14

/ M Tokens

輸出:

$

0.57

/ M Tokens

Meta Llama

Text Generation

Llama-3.3-70B-Instruct

發行日期:2025年4月23日

Llama 3.3 是 Llama 系列中最先進的多語言開放源代碼大型語言模型,其性能可與 405B 模型相媲美,但成本顯著更低。基於 Transformer 架構,它通過有監督的微調 (SFT) 和來自人類反饋的強化學習 (RLHF) 提升了其有用性和安全性。其指令調整版本針對多語言對話進行優化,在各種行業基準中超越了許多開源和封閉的聊天模型。知識截點為 2023年12月。...

總上下文:

33K

最大輸出:

輸入:

$

0.59

/ M Tokens

輸出:

$

0.59

/ M Tokens

Z.ai

Text Generation

GLM-4.5

發行日期:2025年7月28日

GLM-4.5系列模型是為智能代理設計的基礎模型,通過統一推理、編碼和智能代理能力來滿足智能代理應用的複雜需求。GLM-4.5擁有3550億個總參數和320億個活躍參數,提供思維模式和非思維模式兩種模式。...

總上下文:

131K

最大輸出:

輸入:

$

0.4

/ M Tokens

輸出:

$

2.0

/ M Tokens

Qwen

Text Generation

Qwen3-235B-A22B

發行日期:2025年4月30日

Qwen3-235B-A22B 是 Qwen 系列中最新的大型語言模型,以專家混合(Mixture-of-Experts, MoE)架構為特點,具有 235B 的總參數和 22B 的啟動參數。此模型獨特地支持無縫切換思考模式(用於複雜的邏輯推理、數學和編碼)和非思考模式(用於高效的通用對話)。它顯示出顯著增強的推理能力,在創意寫作、角色扮演和多回合對話中具有優越的人類偏好對齊能力。模型在精確整合外部工具的代理能力方面表現優異,並支持超過 100 種語言和方言,具備強大的多語言指令追隨和翻譯能力...

總上下文:

131K

最大輸出:

輸入:

$

0.35

/ M Tokens

輸出:

$

1.42

/ M Tokens

inclusionAI

Text Generation

Ling-1T

發行日期:2025年10月11日

Ling-1T 是 Ling 2.0 系列中第一款旗舰非思维模型,具有 1 万亿个总参数,每个令牌约有 500 亿个活跃参数。基于 Ling 2.0 架构,Ling-1T 被设计用于突破高效推理和可扩展认知的极限。经过在 20 万亿+高质量、富含推理的令牌上预训练,Ling-1T-base 支持最长 131K 的上下文长度,并在中期训练和后期训练中采用进化思维链(Evo-CoT)过程。这一课程极大地提升了模型的效率和推理深度,使 Ling-1T 能够在多个复杂推理基准上实现最先进的性能——在精度和效率之间取得平衡。...

總上下文:

131K

最大輸出:

輸入:

$

0.57

/ M Tokens

輸出:

$

2.28

/ M Tokens

inclusionAI

Text Generation

Ring-1T

發行日期:2025年10月14日

Ring-1T 是一個開源的、一萬億參數的思考模型,由白鈴團隊發布。基於 Ling 2.0 架構和 Ling-1T-base 基礎模型構建,擁有總計一萬億參數,其中包括 500 億激活參數,並支持最多達 131K 代幣的上下文窗口。該模型的深度推理和自然語言推斷能力通過大規模可驗證獎勵強化學習(RLVR)顯著增強,結合自主開發的 icepop 強化學習穩定化方法和高效的 ASystem RL 框架。Ring-1T 在具有挑戰性的推理基準上實現了領先的開源性能,包括數學比賽(例如,IMO 2025)、代碼生成(例如,ICPC 世界總決賽 2025)和邏輯推理。...

總上下文:

131K

最大輸出:

輸入:

$

0.57

/ M Tokens

輸出:

$

2.28

/ M Tokens

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow