GLM-4-32B-0414

GLM-4-32B-0414

THUDM/GLM-4-32B-0414

정보에 대해서GLM-4-32B-0414

GLM-4-32B-0414는 320억 개의 매개변수를 가진 GLM 계열의 차세대 모델입니다. 그 성능은 OpenAI의 GPT 시리즈와 DeepSeek의 V3/R1 시리즈에 필적하며, 매우 사용자 친화적인 로컬 배포 기능을 지원합니다. GLM-4-32B-Base-0414는 15조 바이트의 고품질 데이터, 대량의 추론형 합성 데이터를 포함하여 사전 훈련되어 후속 강화 학습 확장의 기반을 마련했습니다. 사후 훈련 단계에서는 대화 시나리오에 대한 인간의 선호 정렬 외에도 팀은 거절 샘플링 및 강화 학습과 같은 기술을 사용하여 지침 준수, 엔지니어링 코드 및 함수 호출에서 모델의 성능을 강화했습니다. GLM-4-32B-0414는 엔지니어링 코드, 아티팩트 생성, 함수 호출, 검색 기반 Q&A, 보고서 생성 등 다양한 분야에서 우수한 결과를 달성합니다. 여러 벤치마크에서 성능은 때로는 GPT-4o나 DeepSeek-V3-0324 (671B)와 같은 더 큰 모델의 성능에 근접하거나 이를 초과하기도 합니다.

사용 가능한 Serverless

쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.

$

0.27

/

$

0.27

1M 토큰당 (Input/Output)

메타데이터

생성하다

2025. 4. 18.

라이센스

MIT

공급자

Z.ai

허깅페이스

사양

Available

건축

교정된

전문가의 혼합

아니요

총 매개변수

32B

활성화된 매개변수

32B

추론

아니요

Precision

FP8

콘텍스트 길이

33K

Max Tokens

33K

지원됨 기능

Serverless

지원됨

Serverless LoRA

지원하지 않음

Fine-tuning

지원하지 않음

Embedding

지원하지 않음

Rerankers

지원하지 않음

지원 Image Input

지원하지 않음

JSON Mode

지원됨

구조화된 Outputs

지원하지 않음

도구

지원됨

Fim Completion

지원하지 않음

Chat Prefix Completion

지원하지 않음

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow