정보에 대해서QwQ-32B
QwQ는 Qwen 시리즈의 추론 모델입니다. 기존의 명령어 조정 모델과 비교했을 때, QwQ는 사고와 추론이 가능하여 특히 어려운 문제에서 다운스트림 작업에서 상당히 향상된 성능을 발휘할 수 있습니다. QwQ-32B는 중간 크기의 추론 모델로, 최신의 추론 모델들, 예를 들어 DeepSeek-R1, o1-mini와 경쟁력 있는 성능을 발휘할 수 있습니다. 이 Model은 RoPE, SwiGLU, RMSNorm, Attention QKV bias와 같은 기술을 64개의 레이어와 GQA 아키텍처의 8개 KV를 위한 40개의 Q 주의 집중 헤드를 포함하고 있습니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.15
/
$
0.58
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
아니요
전문가의 혼합
아니요
총 매개변수
32B
활성화된 매개변수
32.5B
추론
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원하지 않음
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원하지 않음
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

Qwen
chat
Qwen3-VL-32B-Instruct
출시일: 2025. 10. 21.
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
0.6
/ M Tokens

Qwen
chat
Qwen3-VL-32B-Thinking
출시일: 2025. 10. 21.
Total Context:
262K
Max output:
262K
Input:
$
0.2
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Instruct
출시일: 2025. 10. 15.
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
0.68
/ M Tokens

Qwen
chat
Qwen3-VL-8B-Thinking
출시일: 2025. 10. 15.
Total Context:
262K
Max output:
262K
Input:
$
0.18
/ M Tokens
Output:
$
2.0
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Instruct
출시일: 2025. 10. 4.
Total Context:
262K
Max output:
262K
Input:
$
0.3
/ M Tokens
Output:
$
1.5
/ M Tokens

Qwen
chat
Qwen3-VL-235B-A22B-Thinking
출시일: 2025. 10. 4.
Total Context:
262K
Max output:
262K
Input:
$
0.45
/ M Tokens
Output:
$
3.5
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Instruct
출시일: 2025. 10. 5.
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
chat
Qwen3-VL-30B-A3B-Thinking
출시일: 2025. 10. 11.
Total Context:
262K
Max output:
262K
Input:
$
0.29
/ M Tokens
Output:
$
1.0
/ M Tokens

Qwen
image-to-video
Wan2.2-I2V-A14B
출시일: 2025. 8. 13.
$
0.29
/ Video
