Содержание
MiniMax-M1-80k(456B), первый в мире гибридный open-source attention model в масштабе, теперь доступен на SiliconFlow.
Поддержка 128K контекста
Конкурентоспособная цена: $0.58/M tokens (Input), $2.29/M tokens (Output)
Создан с использованием новейшей архитектуры Mixture-of-Experts (MoE) и Lightning Attention, MiniMax-M1-80k достигает передовых результатов в области долгосрочного логического мышления, задач программирования и многоступенчатого использования инструментов.
Гибридный Attention + MoE Архитектура M1 интегрирует эффективность маршрутизации Mixture-of-Experts с глубиной Lightning Attention, позволяя ему масштабироваться, сохраняя качество рассуждений о длинных последовательностях.
Оптимизировано для агентов и инструментов С поддержкой расширенного контекста и сильными логическими рассуждениями, M1 идеально подходит для приложений, таких как автономные агенты, анализ документов и разработка программного обеспечения в песочнице.
Математика, кодирование и логические рассуждения Бенчмарки показывают, что M1 конкурентоспособен с моделями высшего уровня в задачах, требующих символического мышления, структурированного Output и сложной следования инструкциям.
Быстрый старт
Попробуйте модель MiniMax-M1-80k на Playground SiliconFlow.
Быстрый доступ к API
Следующий пример на Python демонстрирует, как вызвать модель MiniMax-M1-80k через API-эндпоинт SiliconFlow. Более подробная спецификация API для разработчиков.
MiniMax-M1-80k предлагает уникальный баланс масштаба, эффективности и силы рассуждений, созданный для разработчиков, преодолевающих границы генеративного AI. Создаете ли вы долгосрочные помощники, интеллектуальных агентов или передовых кодер-копилотов — M1 готов.
Теперь идите и строите что-то необычное с MiniMax-M1-80k на SiliconFlow.

