Qwen3.6-35B-A3B

Qwen3.6-35B-A3B

Qwen/Qwen3.6-35B-A3B

정보에 대해서Qwen3.6-35B-A3B

Qwen3.6-35B-A3B is a large language model from Alibaba's Qwen3.6 series, featuring a Mixture of Experts (MoE) architecture with 35 billion total parameters and approximately 3 billion active parameters per inference, delivering strong performance with efficient compute utilization. The model supports both thinking and non-thinking modes, offering flexible switching between rapid response and deep reasoning

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

1M 토큰당 (Input/Output)

$

0.2

/ M Tokens

1M 토큰당 (Input/Output)

$

1.6

/ M Tokens

메타데이터

생성하다

라이센스

APACHE-2.0

공급자

Qwen

허깅페이스

사양

Available

건축

MoE Causal LM

교정된

아니요

전문가의 혼합

총 매개변수

35B

활성화된 매개변수

3B

추론

아니요

Precision

FP8

콘텍스트 길이

262K

Max Tokens

262K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원됨

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원하지 않음

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?