
Moonshot AI
Text Generation
Kimi-K2.6
Kimi K2.6 is an open-source, native multimodal agentic model by Moonshot AI, achieving open-source state-of-the-art on benchmarks including HLE with tools, SWE-Bench Pro, and BrowseComp. Built on a MoE architecture with 1T total parameters and 32B activated, the model supports a 256K-token context window and multimodal inputs (image and video) via its MoonViT vision encoder. K2.6 is optimized for agentic workloads: it sustains 4,000+ tool calls over 12+ hours of continuous execution, scales to 300 parallel sub-agents × 4,000 steps per run to produce 100+ files from a single prompt, and supports both Thinking and Instant inference modes with function calling and multi-turn Preserve Thinking...
Total Context:
262K
Max output:
262K
Input:
$
0.95
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
4.0
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2.5
Kimi K2.5 — это open-source, нативная Multimodal агентская Model, созданная через постоянное предобучение на приблизительно 15 триллионах смешанных визуальных и Text token поверх Kimi-K2-Base. С архитектурой MoE на 1 триллион параметров (32 миллиарда активно) и длиной контекста 256 тысяч, она безупречно интегрирует Vision и понимание языка с расширенными агентскими возможностями, поддерживая как мгновенный, так и обдуманный режимы, а также разговорные и агентские парадигмы....
Total Context:
262K
Max output:
262K
Input:
$
0.23
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
3.0
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct-0905
Kimi K2-Instruct-0905, новейшая модель смешивания экспертов (MoE), является последней, самой мощной версией Kimi K2. Ключевые особенности включают улучшенные возможности кодирования, особенно для фронтенда и вызова инструментов, длину контекста, увеличенную до 256k tokens, а также улучшенную интеграцию с различными каркасами агентов....
Total Context:
262K
Max output:
262K
Input:
$
0.4
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
2
/ M Tokens

Moonshot AI
Text Generation
Kimi-K2-Instruct
Kimi K2 — это базовая модель со смесью экспертов (Mixture-of-Experts, MoE) с исключительными возможностями кодирования и агентирования, содержащая 1 триллион общих параметров и 32 миллиарда активированных параметров. В оценках по эталонным тестам, охватывающим общие знания, программирование, математику и задачи, связанные с агентами, модель K2 превосходит другие ведущие модели с открытым исходным кодом....
Total Context:
131K
Max output:
131K
Input:
$
0.58
/ M Tokens
Input:
$
text
/ M Tokens
Output:
$
2.29
/ M Tokens

