Современный

Библиотека моделей ИИ

Один API для запуска Inference на более чем 200 передовых AI Models и развертывания за считанные секунды

Современный

Библиотека моделей ИИ

Один API для запуска Inference на более чем 200 передовых AI Models и развертывания за считанные секунды

Современный

Библиотека моделей ИИ

Один API для запуска Inference на более чем 200 передовых AI Models и развертывания за считанные секунды

Tencent

Text Generation

Hunyuan-MT-7B

Выпуск: 18 сент. 2025 г.

Модель перевода Hunyuan состоит из модели перевода, Hunyuan-MT-7B, и ансамблевой модели, Hunyuan-MT-Chimera. Hunyuan-MT-7B — это легкая модель перевода с 7 миллиардами параметров, используемая для перевода исходного текста на целевой язык. Модель поддерживает взаимный перевод между 33 языками, включая пять языков национальных меньшинств Китая. В конкурсе по машинному переводу WMT25 Hunyuan-MT-7B заняла первое место в 30 из 31 языковой категории, в которых она участвовала, демонстрируя свои выдающиеся возможности перевода. Для задач перевода Tencent Hunyuan предложила всеобъемлющую структуру обучения, охватывающую предобучение, контролируемое Fine-tuning, улучшение перевода и усовершенствование ансамбля, достигая передовых результатов среди моделей подобного масштаба. Модель вычислительно эффективна и проста в развертывании, что делает её подходящей для различных сценариев применения....

Total Context:

33K

Max output:

33K

Input:

$

0.0

/ M Tokens

Output:

$

0.0

/ M Tokens

Tencent

Text Generation

Hunyuan-A13B-Instruct

Выпуск: 30 июн. 2025 г.

Hunyuan-A13B-Instruct активирует только 13 B из своих 80 B параметров, но при этом соответствует более крупным LLM на основных бенчмарках. Он предлагает гибридное рассуждение: режим с низкой задержкой "быстрый" или режим с высокой Precision "медленный", переключаемый при каждом вызове. Родной контекст 256 K-token позволяет обрабатывать документы книжной длины без деградации. Навыки агента настроены для лидерства в BFCL-v3, τ-Bench и C3-Bench, что делает его отличной автономной основой для помощника. Группированное внимание к запросам плюс многоформатная квантизация обеспечивают легкое по памяти и эффективное использование GPU Inference для реального внедрения, с встроенной мультиязычной поддержкой и надежным согласованием безопасности для приложений корпоративного уровня....

Total Context:

131K

Max output:

131K

Input:

$

0.14

/ M Tokens

Output:

$

0.57

/ M Tokens

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Готовы ускорить ваше развитие ИИ?

Russian (Russia)
Russian (Russia)
Russian (Russia)