關於Qwen2.5-72B-Instruct-128K
Qwen2.5-72B-Instruct 是阿里巴巴雲最新發布的大型語言模型系列之一。這個72B 模型在編碼和數學等方面顯示出顯著的改進。它支持最多128K token 的上下文長度。該模型還提供多語言支持,涵蓋超過29種語言,包括中文、英文等。它在遵循指令、理解結構化數據以及生成結構化輸出方面,尤其中在JSON格式,顯示出顯著的增強。
探索 Qwen2.5-72B-Instruct-128K 的豐富上下文、高級編碼和結構化輸出能力如何解決複雜的現實世界挑戰。
高級代碼生成
生成生產就緒代碼,重構舊系統,並通過深度上下文理解在各種語言中實施複雜算法。
使用案例範例:
"通過分析現有系統架構和50頁規範中的需求,用 Go 開發了一個完整的微服務,包括 API 端點、數據庫交互和單元測試。"
深入文檔分析
處理和提取龐大法律合同、研究論文或技術手冊中的見解,生成結構化摘要並回答複雜查詢。
使用案例範例:
"將100頁法律簡報摘要成關鍵論點和潛在責任,以 JSON 對象形式呈現,方便法律團隊快速審查。"
多語言數據處理
翻譯、本地化並處理超過29種語言的結構化數據,確保準確的上下文保留和一致的輸出格式,例如 JSON。
使用案例範例:
"將產品目錄從英語翻譯成日語和德語,自動將產品規格轉換為本地化的 JSON 格式以用於電子商務平台。"
高級數學推理
解決複雜的數學問題,生成證明並導出公式,為科學和工程挑戰提供逐步解釋。
使用案例範例:
"基於詳細問題描述,為供應鏈網絡設計了一種新的優化算法,包括數學公式推導和 Python 實現。"
結構化 API 與配置生成
從自然語言需求中自動生成 API 規範(例如 OpenAPI)、系統配置或數據模式,精確形成 JSON/YAML 格式。
使用案例範例:
"從高級設計文檔和示例請求中創建了完整的 OpenAPI 3.0 規範,用於新的 REST API,包括身份驗證、端點和資料模型。"
元數據
規格
狀態
Deprecated
架構
Transformer Decoder
經過校準的
否
專家並行
否
總參數
72B
啟用的參數
72B
推理
否
精度
FP8
上下文長度
131K
最大輸出長度
4K
與其他模型比較
看看這個模型與其他模型的對比如何。

Qwen
chat
Qwen3-VL-32B-Instruct
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
發行日期:2025年10月21日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.2
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
發行日期:2025年10月15日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.18
/ M Tokens
輸出:
$
2
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.3
/ M Tokens
輸出:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
發行日期:2025年10月4日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.45
/ M Tokens
輸出:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
發行日期:2025年10月5日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
發行日期:2025年10月11日
總上下文:
262K
最大輸出:
262K
輸入:
$
0.29
/ M Tokens
輸出:
$
1
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
發行日期:2025年8月13日
$
0.29
/ Video
