Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507

Qwen/Qwen3-235B-A22B-Instruct-2507

정보에 대해서Qwen3-235B-A22B-Instruct-2507

Qwen3-235B-A22B-Instruct-2507은 Alibaba Cloud의 Qwen 팀이 개발한 Qwen3 시리즈의 대표 Mixture-of-Experts (MoE) 대형 언어 Model입니다. 이 Model은 총 2,350억 개의 매개변수를 가지고 있으며, 매 포워드 패스당 220억 개가 활성화됩니다. 이는 Qwen3-235B-A22B 비사고 모드의 업데이트된 버전으로 출시되었으며, 지시 사항 따르기, 논리적 추론, Text 이해, 수학, 과학, 코딩 및 도구 사용과 같은 일반적인 기능 향상이 특징입니다. 또한, 다중 언어에서의 긴 꼬리 지식 범위에서 상당한 이점을 제공하며, 주관적이고 개방적인 작업에서 사용자 선호도와 더욱 잘 맞춰져 더욱 도움이 되는 응답과 고품질 Text 생성이 가능하게 합니다. 특히, 광범위한 256K (262,144 tokens) 컨텍스트 창을 본래 지원하여 장기 컨텍스트 이해의 기능을 향상시킵니다. 이 버전은 비사고 모드만을 독점적으로 지원하며, <think> 블록을 생성하지 않으며, 직접적인 Q&A 및 지식 검색과 같은 작업에 대한 더 효율적이고 정확한 응답을 제공하는 것을 목표로 합니다.

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

$

0.09

/

$

0.6

1M 토큰당 (Input/Output)

메타데이터

생성하다

2025. 7. 23.

라이센스

APACHE-2.0

공급자

Qwen

사양

Available

건축

교정된

전문가의 혼합

총 매개변수

235B

활성화된 매개변수

22B

추론

아니요

Precision

FP8

콘텍스트 길이

262K

Max Tokens

262K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원하지 않음

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원됨

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow