メタのLlama 3.1は、メタが開発した多言語対応の大規模言語Modelのファミリーで、8B、70B、405Bのパラメータサイズの事前トレーニングおよび命令調整されたバリアントを備えています。この8Bの命令調整されたModelは、多言語ダイアログユースケースのために最適化され、多くの利用可能なオープンソースおよびクローズChatModelに対して業界の共通ベンチマークで優れた性能を発揮します。このModelは、公開されているデータの15兆以上のtokenでトレーニングされ、役立ち性と安全性を向上させるために、監督されたFine-tuningや人間のフィードバックを伴う強化学習などの技術を使用しています。Llama 3.1はTextやコード生成をサポートし、知識のカットオフは2023年12月です。...