정보에 대해서GLM-5V-Turbo
GLM-5V-Turbo is Zhipu’s latest flagship multimodal foundation model, optimized for multimodal coding and agent capabilities. It supports up to 200K tokens of image, video, and text context, and, when integrated with frameworks such as Claude Code and OpenClaw, can handle complex long-horizon programming and assistant tasks.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
1M 토큰당 (Input/Output)
$
1.2
/ M Tokens
1M 토큰당 (Input/Output)
$
0.24
/ M Tokens
1M 토큰당 (Input/Output)
$
4.0
/ M Tokens
메타데이터
사양
주
Available
건축
교정된
아니요
전문가의 혼합
아니요
총 매개변수
-1B
활성화된 매개변수
추론
아니요
Precision
FP8
콘텍스트 길이
205K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원됨
JSON Mode
지원하지 않음
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원하지 않음
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

Z.ai
chat
GLM-5.1
출시일: 2026. 4. 3.
Total Context:
205K
Max output:
131K
Input:
$
1.4
/ M Tokens
Output:
$
4.4
/ M Tokens

Z.ai
chat
GLM-5V-Turbo
출시일: 2026. 3. 30.
Total Context:
205K
Max output:
131K
Input:
$
1.2
/ M Tokens
Output:
$
4.0
/ M Tokens

Z.ai
chat
GLM-5
출시일: 2026. 2. 12.
Total Context:
205K
Max output:
131K
Input:
$
0.95
/ M Tokens
Output:
$
2.55
/ M Tokens

Z.ai
chat
GLM-4.7
출시일: 2025. 12. 23.
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
출시일: 2025. 12. 8.
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
출시일: 2025. 10. 4.
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
출시일: 2025. 7. 28.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
출시일: 2025. 8. 13.
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
출시일: 2025. 7. 4.
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens
