MiniMax-M1-80k теперь доступен на SiliconFlow

17 июн. 2025 г.

Содержание

MiniMax-M1-80k(456B), первый в мире открытый гибридный внимание Model в масштабе, теперь доступен на SiliconFlow.
MiniMax-M1-80k(456B), первый в мире открытый гибридный внимание Model в масштабе, теперь доступен на SiliconFlow.

MiniMax-M1-80k(456B), первый в мире гибридный open-source attention model в масштабе, теперь доступен на SiliconFlow.

  • Поддержка 128K контекста

  • Конкурентоспособная цена: $0.58/M tokens (Input), $2.29/M tokens (Output)

Создан с использованием новейшей архитектуры Mixture-of-Experts (MoE) и Lightning Attention, MiniMax-M1-80k достигает передовых результатов в области долгосрочного логического мышления, задач программирования и многоступенчатого использования инструментов.

  • Гибридный Attention + MoE Архитектура M1 интегрирует эффективность маршрутизации Mixture-of-Experts с глубиной Lightning Attention, позволяя ему масштабироваться, сохраняя качество рассуждений о длинных последовательностях.

  • Оптимизировано для агентов и инструментов С поддержкой расширенного контекста и сильными логическими рассуждениями, M1 идеально подходит для приложений, таких как автономные агенты, анализ документов и разработка программного обеспечения в песочнице.

  • Математика, кодирование и логические рассуждения Бенчмарки показывают, что M1 конкурентоспособен с моделями высшего уровня в задачах, требующих символического мышления, структурированного Output и сложной следования инструкциям.


Быстрый старт

Попробуйте модель MiniMax-M1-80k на Playground SiliconFlow.


Быстрый доступ к API

Следующий пример на Python демонстрирует, как вызвать модель MiniMax-M1-80k через API-эндпоинт SiliconFlow. Более подробная спецификация API для разработчиков.

from openai import OpenAI

url = 'https://api.siliconflow.com/v1/'
api_key = 'your api_key'

client = OpenAI(
    base_url=url,
    api_key=api_key
)

# Send a request with streaming output
content = ""
reasoning_content = ""
messages = [
    {"role": "user", "content": "Who are the legendary athletes of the Olympics?"}
]
response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M1-80k",
    messages=messages,
    stream=True,  # Enable streaming output
    max_tokens=4096,
    extra_body={
        "thinking_budget": 1024
    }
)
# Gradually receive and process the response
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content

# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
    model="MiniMaxAI/MiniMax-M1-80k",
    messages=messages,
    stream=True
)

MiniMax-M1-80k предлагает уникальный баланс масштаба, эффективности и силы рассуждений, созданный для разработчиков, преодолевающих границы генеративного AI. Создаете ли вы долгосрочные помощники, интеллектуальных агентов или передовых кодер-копилотов — M1 готов.

Теперь идите и строите что-то необычное с MiniMax-M1-80k на SiliconFlow.

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)