Meta-Llama-3.1-8B-Instruct

Meta-Llama-3.1-8B-Instruct

meta-llama/Meta-Llama-3.1-8B-Instruct

約Meta-Llama-3.1-8B-Instruct

メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。

利用可能な Serverless

クエリをすぐに実行し、使用量のみを支払います

$

0.06

$

0.06

100万トークン(Input/Output)ごとに

メタデータ

作成する

2025/04/23

ライセンス

プロバイダー

Meta Llama

ハギングフェイス

仕様

Available

建築

キャリブレートされた

はい

専門家の混合

いいえ

合計パラメータ

8B

アクティブ化されたパラメータ

8B

推論

いいえ

Precision

FP8

コンテキスト長

33K

Max Tokens

4K

対応機能

Serverless

対応

Serverless LoRA

サポートされていません

Fine-tuning

サポートされていません

Embeddings

サポートされていません

Rerankers

サポートされていません

Image入力をサポートする

サポートされていません

JSON Mode

対応

構造化されたOutputs

サポートされていません

ツール

サポートされていません

Fim Completion

サポートされていません

Chat Prefix Completion

対応

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow