정보에 대해서GLM-4.5V
GLM-V 계열 모델의 일부인 GLM-4.5V는 ZhipuAI의 기본 모델 GLM-4.5-Air를 기반으로 하여 이미지, 비디오 및 문서 이해와 같은 작업에서 SOTA 성능을 달성하고 GUI 에이전트 작업도 수행합니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.14
/
$
0.86
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
네
전문가의 혼합
네
총 매개변수
106B
활성화된 매개변수
12B
추론
아니요
Precision
FP8
콘텍스트 길이
66K
Max Tokens
66K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원됨
JSON Mode
지원하지 않음
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원하지 않음
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

Z.ai
chat
GLM-4.7
출시일: 2025. 12. 23.
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
출시일: 2025. 12. 8.
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
출시일: 2025. 10. 4.
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
출시일: 2025. 7. 28.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
출시일: 2025. 8. 13.
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
출시일: 2025. 7. 4.
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
출시일: 2025. 4. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
출시일: 2025. 4. 18.
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
chat
GLM-Z1-9B-0414
출시일: 2025. 4. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens
