Qwen3-Embedding-0.6B

Qwen3-Embedding-0.6B

Qwen/Qwen3-Embedding-0.6B

約Qwen3-Embedding-0.6B

Qwen3-Embedding-0.6Bは、Qwen3 Embeddingシリーズ内の最新の独自モデルであり、特にテキストEmbeddingおよびランキングタスク用に設計されています。Qwen3シリーズの密集した基盤モデルの上に構築されたこの0.6Bパラメータモデルは、32Kまでのコンテキスト長をサポートし、最大1024の次元でEmbeddingを生成できます。このModelは、100以上の言語をサポートする優れた多言語機能を引き継ぎ、長文理解と推論能力を備えています。MTEB多言語リーダーボードで強力なパフォーマンスを発揮し(スコア64.33)、テキスト検索、コード検索、テキスト分類、クラスタリング、およびバイテキストマイニングを含むさまざまなタスクで優れた結果を示しています。このModelは、柔軟なベクトル次元(32から1024)と特定のタスクおよびシナリオでのパフォーマンス向上のための指示対応能力を提供し、効率と効果の両方を優先するアプリケーションにとって理想的な選択肢となります。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

0.01

100万トークンあたり

メタデータ

作成する

2025/06/06

ライセンス

APACHE-2.0

プロバイダー

Qwen

ハギングフェイス

仕様

Available

建築

Dense Transformer

キャリブレートされた

はい

専門家の混合

いいえ

合計パラメータ

1B

アクティブ化されたパラメータ

0.6B

推論

いいえ

Precision

FP8

コンテキスト長

33K

Max Tokens

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

対応

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

サポートされていません

構造化されたOutputs

サポートされていません

ツール

サポートされていません

Fim Completion

サポートされていません

Chat Prefix Completion

サポートされていません

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow