Hy3-preview

О Hy3-preview

Hy3 preview is a 295B-parameter Mixture-of-Experts (MoE) language model from Tencent Hunyuan, built for production-grade agent workloads. With only 21B parameters activated per token and native 256K context support, it handles complex tasks like cross-file code refactoring, long-document analysis, and multi-step tool use, rather than just generating fluent dialogue. Hy3 scores near state-of-the-art on SWE-bench Verified and advanced STEM benchmarks, while offering three inference modes (no_think, think_low, think_high) to dynamically trade off latency and reasoning depth. Its sparse activation architecture delivers competitive intelligence at a significantly lower token cost.

Доступный Serverless

Запускайте запросы немедленно, платите только за использование

За 1 миллион Tokens (Input/Output)

$

0.0

/ M Tokens

За 1 миллион Tokens (Input/Output)

$

0.0

/ M Tokens

Метаданные

Создать на

Лицензия

TENCENT HY COMMUNITY LICENSE AGREEMENT

Поставщик

Tencent

HuggingFace

Спецификация

Государство

Available

Архитектура

Mixture-of-Experts

Калибровка

Нет

Смешение экспертов

Да

Общее количество параметров

80B

Активированные параметры

21B

Мышление

Нет

Точность

ФП8

Контекст length

131K

Максимум Tokens

262K

поддерживается функциональность

Безсерверный

поддерживается

Безсерверный LoRA

Не поддерживается

Тонкая настройка

Не поддерживается

Embeddings

Не поддерживается

Rerankers

Не поддерживается

Поддержка Image Input

Не поддерживается

Режим JSON

Не поддерживается

Структурированные Outputs

Не поддерживается

Инструменты

поддерживается

Завершение погашения

Не поддерживается

Chat Префикс Заполнение

поддерживается

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?