約Meta-Llama-3.1-8B-Instruct
メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。
利用可能な Serverless
クエリをすぐに実行し、使用量のみを支払います
$
0.06
/
$
0.06
100万トークン(Input/Output)ごとに
メタデータ
仕様
州
Available
建築
キャリブレートされた
はい
専門家の混合
いいえ
合計パラメータ
8B
アクティブ化されたパラメータ
8B
推論
いいえ
Precision
FP8
コンテキスト長
33K
Max Tokens
4K
対応機能
Serverless
対応
Serverless LoRA
サポートされていません
Fine-tuning
サポートされていません
Embeddings
サポートされていません
Rerankers
サポートされていません
Image入力をサポートする
サポートされていません
JSON Mode
対応
構造化されたOutputs
サポートされていません
ツール
サポートされていません
Fim Completion
サポートされていません
Chat Prefix Completion
対応
他のModelsと比較
他のモデルに対してこのModelがどのように比較されるかを見てください。

