GLM-4.1V-9B-Thinking

GLM-4.1V-9B-Thinking

THUDM/GLM-4.1V-9B-Thinking

Tentang GLM-4.1V-9B-Thinking

GLM-4.1V-9B-Thinking adalah Vision-Language Model (VLM) open-source yang dirilis bersama oleh Zhipu AI dan lab KEG Universitas Tsinghua, dirancang untuk memajukan penalaran multimodal umum. Dibangun berdasarkan model dasar GLM-4-9B-0414, ini memperkenalkan 'paradigma berpikir' dan memanfaatkan Pembelajaran Penguatan dengan Pengambilan Sampel Kurikulum (RLCS) untuk secara signifikan meningkatkan kemampuannya dalam tugas kompleks. Sebagai model parameter 9B, ini mencapai kinerja mutakhir di antara model dengan ukuran serupa, dan kinerjanya sebanding atau bahkan melampaui Qwen-2.5-VL-72B dengan parameter lebih besar 72B pada 18 tolok ukur berbeda. Model ini unggul dalam berbagai tugas yang beragam, termasuk pemecahan masalah STEM, pemahaman video, dan pemahaman dokumen panjang, serta dapat menangani gambar dengan resolusi hingga 4K dan rasio aspek sembarang.

Tersedia Serverless

Jalankan kueri segera, bayar hanya untuk penggunaan

$

0.035

/

$

0.14

Per 1M Token (Input/Output)

Metadata

Buat di

4 Jul 2025

Lisensi

MIT

Penyedia

Z.ai

Spesifikasi

Negara

Available

Arsitektur

Terkalibrasi

Tidak

Campuran Ahli

Tidak

Total Parameter

9B

Parameter yang Diaktifkan

9B

Penalaran

Tidak

Precision

FP8

Text panjang konteks

66K

Max Tokens

66K

Didukung Keberfungsian

Serverless

didukung

Serverless LoRA

Tidak didukung

Fine-tuning

Tidak didukung

Embeddings

Tidak didukung

Rerankers

Tidak didukung

Dukung Image Input

didukung

JSON Mode

Tidak didukung

Output Terstruktur

Tidak didukung

Alat

Tidak didukung

Fim Completion

Tidak didukung

Chat Prefix Completion

Tidak didukung

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Siap untuk mempercepat pengembangan AI Anda?

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow

Indonesian (Indonesia)

© 2025 SiliconFlow