모델 비교

Qwen3-235B-A22B-Instruct-2507

Ring-flash-2.0

2026. 2. 28.

가격

Input

$

0.09

/ M Tokens

$

0.14

/ M Tokens

Output

$

0.6

/ M Tokens

$

0.57

/ M Tokens

메타데이터

생성하다

2025. 7. 21.

2025. 9. 19.

라이센스

APACHE-2.0

MIT LICENSE

공급자

Qwen

inclusionAI

사양

Available

Available

건축

Mixture-of-Experts (MoE)

Mixture-of-Experts (MoE) with 1/32 expert activation ratio and MTP layers, featuring low activation and high sparsity design

교정된

전문가의 혼합

총 매개변수

235B

100B

활성화된 매개변수

22B

6.1B

추론

아니요

아니요

Precision

FP8

FP8

콘텍스트 길이

262K

131K

Max Tokens

262K

131K

지원됨 기능

Serverless

지원됨

지원됨

Serverless LoRA

지원하지 않음

지원하지 않음

Fine-tuning

지원하지 않음

지원하지 않음

Embedding

지원하지 않음

지원하지 않음

Rerankers

지원하지 않음

지원하지 않음

지원 Image Input

지원하지 않음

지원하지 않음

JSON Mode

지원됨

지원하지 않음

구조화된 Outputs

지원하지 않음

지원하지 않음

도구

지원됨

지원하지 않음

Fim Completion

지원하지 않음

지원하지 않음

Chat Prefix Completion

지원됨

지원됨

Qwen3-235B-A22B-Instruct-2507비교에서

보세요 어떻게 Qwen3-235B-A22B-Instruct-2507다른 인기 있는 모델과 주요 측면에서 비교합니다.

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow