Meta Llama 3.1 — это семейство многоязычных больших языковых моделей, разработанных компанией Meta, с предобученными и инструкционно-настроенными вариантами в размерах 8B, 70B и 405B параметров. Эта 8B инструкционно-настроенная Model оптимизирована для многоязычных диалоговых случаев использования и превосходит многие доступные модели на общих отраслевых контрольных точках. Модель была обучена на более чем 15 триллионах tokens общедоступных данных, используя такие техники, как контролируемое Fine-tuning и обучение с подкреплением с обратной связью от человека для повышения полезности и безопасности. Llama 3.1 поддерживает Text и кодогенерацию, с отсечкой знаний на декабрь 2023 года....