Qwen3.5-122B-A10B

Qwen3.5-122B-A10B

Qwen/Qwen3.5-122B-A10B

Tentang Qwen3.5-122B-A10B

Qwen3.5-122B-A10B is a native multimodal large language model from the Qwen team, with 122B total parameters and only 10B activated. It features an efficient hybrid architecture combining Gated Delta Networks with sparse Mixture-of-Experts (MoE), natively supporting a 256K context length extensible up to ~1M tokens. Through early fusion training, it achieves unified vision-language capabilities supporting text, image, and video understanding, with strong performance across knowledge, reasoning, coding, agents, visual understanding, and multilingual benchmarks, surpassing GPT-5-mini and Qwen3-235B-A22B on multiple metrics. It defaults to thinking mode, supports tool calling, and covers 201 languages and dialects

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

Per 1M Token (Input/Output)

$

0.26

/ M Tokens

Per 1M Token (Input/Output)

$

2.08

/ M Tokens

Metadata

Buat di

Lisensi

APACHE-2.0

Penyedia

Qwen

Spesifikasi

Negara

Available

Arsitektur

Hybrid Sparse MoE

Terkalibrasi

Ya

Campuran Ahli

Ya

Total Parameter

122B

Parameter yang Diaktifkan

10B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

262K

Max Tokens

262K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

didukung

JSON Mode

didukung

Output Terstruktur

Tidak didukung

Alat

didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?