Qwen3.5-27B

Qwen3.5-27B

Qwen/Qwen3.5-27B

關於Qwen3.5-27B

Qwen3.5-27B is a native multimodal large language model from the Qwen team with 27B parameters. It features an efficient hybrid architecture combining Gated Delta Networks with Gated Attention, natively supporting a 256K context length extensible up to ~1M tokens. The model achieves unified vision-language capabilities through early fusion training, supporting text, image, and video understanding with strong performance across reasoning, coding, agents, and visual understanding benchmarks, surpassing Qwen3-235B-A22B and GPT-5-mini on multiple metrics. It defaults to thinking mode, supports tool calling, and covers 201 languages and dialects

可用的無伺服器

立即運行查詢,僅按使用量付費

每百萬 Tokens(輸入/輸出)

$

0.25

/ M Tokens

每百萬 Tokens(輸入/輸出)

$

2.0

/ M Tokens

元數據

創建於

許可證

APACHE-2.0

供應商

Qwen

HuggingFace

規格

狀態

Available

架構

Hybrid MoE

經過校準的

專家並行

總參數

27B

啟用的參數

推理

精度

FP8

上下文長度

262K

最大輸出長度

262K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

支持

JSON 模式

支持

結構化輸出

不支持

工具

支持

中間填充補全

不支持

聊天前綴補全

不支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?