Meta-Llama-3.1-8B-Instruct

Meta-Llama-3.1-8B-Instruct

meta-llama/Meta-Llama-3.1-8B-Instruct

關於Meta-Llama-3.1-8B-Instruct

Meta Llama 3.1 是由 Meta 開發的一系列多語言大型語言模型,具有 8B、70B 和 405B 參數大小的預訓練和指令調整變體。這個 8B 指令調整模型針對多語言對話使用案例進行了優化,並在許多可用的開源和封閉聊天模型的常見行業基準上表現優異。該模型在超過 15 萬億個公開可用數據的 token 上進行了訓練,使用監督微調和帶有人類反饋的強化學習等技術來增強有用性和安全性。Llama 3.1 支援文本和代碼生成,知識截止於 2023 年 12 月。

可用的無伺服器

立即運行查詢,僅按使用量付費

$

0.06

$

0.06

每百萬 Tokens(輸入/輸出)

元數據

創建於

2025年4月23日

許可證

供應商

Meta Llama

規格

狀態

Available

架構

經過校準的

專家並行

總參數

8B

啟用的參數

8B

推理

精度

FP8

上下文長度

33K

最大輸出長度

4K

支援的功能

無伺服器

支持

無伺服器的 LoRA

不支持

微調

不支持

向量嵌入

不支持

重排序

不支持

支援圖片輸入

不支持

JSON 模式

支持

結構化輸出

不支持

工具

不支持

中間填充補全

不支持

聊天前綴補全

支持

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

準備好 加速您的人工智能開發了嗎?

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow

Chinese (Traditional Han, Taiwan)

© 2025 SiliconFlow