Qwen3.5-122B-A10B

Qwen3.5-122B-A10B

Qwen/Qwen3.5-122B-A10B

정보에 대해서Qwen3.5-122B-A10B

Qwen3.5-122B-A10B is a native multimodal large language model from the Qwen team, with 122B total parameters and only 10B activated. It features an efficient hybrid architecture combining Gated Delta Networks with sparse Mixture-of-Experts (MoE), natively supporting a 256K context length extensible up to ~1M tokens. Through early fusion training, it achieves unified vision-language capabilities supporting text, image, and video understanding, with strong performance across knowledge, reasoning, coding, agents, visual understanding, and multilingual benchmarks, surpassing GPT-5-mini and Qwen3-235B-A22B on multiple metrics. It defaults to thinking mode, supports tool calling, and covers 201 languages and dialects

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

1M 토큰당 (Input/Output)

$

0.26

/ M Tokens

1M 토큰당 (Input/Output)

$

2.08

/ M Tokens

메타데이터

생성하다

라이센스

APACHE-2.0

공급자

Qwen

허깅페이스

사양

Available

건축

Hybrid Sparse MoE

교정된

전문가의 혼합

총 매개변수

122B

활성화된 매개변수

10B

추론

아니요

Precision

FP8

콘텍스트 길이

262K

Max Tokens

262K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원됨

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원하지 않음

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?