Qwen3.5-397B-A17B

Qwen3.5-397B-A17B

Qwen/Qwen3.5-397B-A17B

정보에 대해서Qwen3.5-397B-A17B

Qwen3.5-397B-A17B is the latest vision-language model in the Qwen series, featuring a Mixture-of-Experts (MoE) architecture with 397B total parameters and 17B activated parameters. It natively supports 256K context length, extensible to approximately 1M tokens, with support for 201 languages, unified vision-language understanding, tool calling, and reasoning (thinking) mode

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

1M 토큰당 (Input/Output)

$

0.39

/ M Tokens

1M 토큰당 (Input/Output)

$

2.34

/ M Tokens

메타데이터

생성하다

라이센스

APACHE-2.0

공급자

Qwen

허깅페이스

사양

Available

건축

MoE Vision-Language

교정된

아니요

전문가의 혼합

총 매개변수

397B

활성화된 매개변수

17B

추론

아니요

Precision

FP8

콘텍스트 길이

262K

Max Tokens

262K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원됨

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원됨

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?