목차
Tencent Hunyuan AI 팀이 SiliconFlow 플랫폼에서 오픈 소스로 제공되는 대형 언어 모델(LLM)인 Hunyuan-A13B-Instruct의 출시를 발표했습니다.
세밀한 Mixture-of-Experts (MoE) 아키텍처를 기반으로 구축된 이 모델은 13B 활성 파라미터만으로 80B 총 파라미터를 효율적으로 확장하여 수학, 과학, 에이전트 도메인 등 여러 벤치마크에서 최첨단 성능을 달성합니다.
SiliconFlow는 다음을 지원합니다:
확장된 컨텍스트: 기본 128K token 컨텍스트 윈도우(256K는 요청 시 사용 가능).
비용 최적화된 가격: 0.14/M tokens(input) 및 0.57/M tokens (output).
Hunyuan-A13B-Instruct가 중요한 이유?
작지만 강력함: 총 80억 중 13억 개의 활성 파라미터만으로도 다양한 벤치마크 작업에서 경쟁력 있는 성능을 제공하며 더 큰 모델과 견줄 수 있습니다.
하이브리드 추론 지원: 빠른 사고 및 느린 사고 모드를 모두 지원하여 사용자 필요에 따라 유연하게 선택할 수 있습니다.
초장문 컨텍스트 이해: 본디 256K 컨텍스트 윈도우를 지원하여 긴 텍스트 작업에서도 안정적인 성능을 유지합니다.
향상된 에이전트 기능: 에이전트 작업에 최적화되어 있으며 BFCL-v3, τ-Bench, C3-Bench와 같은 벤치마크에서 선도적 결과를 달성합니다.
효율적인 Inference: Grouped Query Attention (GQA)을 활용하고 다양한 양자화 형식을 지원하여 Inference를 매우 효율적으로 수행합니다.
빠른 시작
SiliconFlow Playground에서 Hunyuan-A13B-Instruct 모델을 직접 사용해보세요.
API에 빠른 액세스
다음 Python 예제는 SiliconFlow의 API 엔드포인트를 사용하여 Hunyuan-A13B-Instruct 모델을 호출하는 방법을 보여줍니다. 더 많은 사양은 SiliconFlow API 문서를 참조하십시오.
Hunyuan-A13B-Instruct는 높은 성능을 원하는 연구자와 개발자에게 이상적인 선택입니다. 학술 연구, 비용 효율적인 AI 솔루션 개발, 혁신적인 애플리케이션 탐구 등을 위해 이 모델은 발전을 위한 견고한 기반을 제공합니다.
오늘 SiliconFlow에서 Hunyuan-A13B-Instruct를 통한 개발을 시작하세요!

