정보에 대해서GLM-4-32B-0414
GLM-4-32B-0414는 320억 개의 매개변수를 가진 GLM 계열의 차세대 모델입니다. 그 성능은 OpenAI의 GPT 시리즈와 DeepSeek의 V3/R1 시리즈에 필적하며, 매우 사용자 친화적인 로컬 배포 기능을 지원합니다. GLM-4-32B-Base-0414는 15조 바이트의 고품질 데이터, 대량의 추론형 합성 데이터를 포함하여 사전 훈련되어 후속 강화 학습 확장의 기반을 마련했습니다. 사후 훈련 단계에서는 대화 시나리오에 대한 인간의 선호 정렬 외에도 팀은 거절 샘플링 및 강화 학습과 같은 기술을 사용하여 지침 준수, 엔지니어링 코드 및 함수 호출에서 모델의 성능을 강화했습니다. GLM-4-32B-0414는 엔지니어링 코드, 아티팩트 생성, 함수 호출, 검색 기반 Q&A, 보고서 생성 등 다양한 분야에서 우수한 결과를 달성합니다. 여러 벤치마크에서 성능은 때로는 GPT-4o나 DeepSeek-V3-0324 (671B)와 같은 더 큰 모델의 성능에 근접하거나 이를 초과하기도 합니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.27
/
$
0.27
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
네
전문가의 혼합
아니요
총 매개변수
32B
활성화된 매개변수
32B
추론
아니요
Precision
FP8
콘텍스트 길이
33K
Max Tokens
33K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원됨
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원하지 않음
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

Z.ai
chat
GLM-4.7
출시일: 2025. 12. 23.
Total Context:
205K
Max output:
205K
Input:
$
0.42
/ M Tokens
Output:
$
2.2
/ M Tokens

Z.ai
chat
GLM-4.6V
출시일: 2025. 12. 8.
Total Context:
131K
Max output:
131K
Input:
$
0.3
/ M Tokens
Output:
$
0.9
/ M Tokens

Z.ai
chat
GLM-4.6
출시일: 2025. 10. 4.
Total Context:
205K
Max output:
205K
Input:
$
0.39
/ M Tokens
Output:
$
1.9
/ M Tokens

Z.ai
chat
GLM-4.5-Air
출시일: 2025. 7. 28.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.5V
출시일: 2025. 8. 13.
Total Context:
66K
Max output:
66K
Input:
$
0.14
/ M Tokens
Output:
$
0.86
/ M Tokens

Z.ai
chat
GLM-4.1V-9B-Thinking
출시일: 2025. 7. 4.
Total Context:
66K
Max output:
66K
Input:
$
0.035
/ M Tokens
Output:
$
0.14
/ M Tokens

Z.ai
chat
GLM-Z1-32B-0414
출시일: 2025. 4. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

Z.ai
chat
GLM-4-32B-0414
출시일: 2025. 4. 18.
Total Context:
33K
Max output:
33K
Input:
$
0.27
/ M Tokens
Output:
$
0.27
/ M Tokens

Z.ai
chat
GLM-Z1-9B-0414
출시일: 2025. 4. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.086
/ M Tokens
Output:
$
0.086
/ M Tokens
