シリコンフローでHunyuan-A13B-Instructが利用可能になりました

2025/06/30

目次

テンセントHunyuan AIチームは、オープンソースの大規模言語モデル (LLM) であるHunyuan-A13B-InstructのリリースをSiliconFlowプラットフォーム上で発表しました。

微細なMixture-of-Experts (MoE) アーキテクチャに基づいて構築されたこのモデルは、13Bのアクティブパラメータのみで80Bの総パラメータを効率的にスケールし、特に数学、科学、エージェントドメインなどの複数のベンチマークで最先端の性能を達成しています。

SiliconFlowは次をサポートします:

  • 拡張コンテキスト:デフォルトで128Kトークンのコンテキストウィンドウを提供し、リクエストに応じて256Kが利用可能

  • コスト最適化価格: 0.14/Mトークン (input) と 0.57/Mトークン (output)。

なぜHunyuan-A13B-Instructが重要なのか?

  • コンパクトでありながらパワフル:80億のうち13億のアクティブパラメータのみで、多くのベンチマークタスクで競争力のある性能を発揮し、はるかに大きなモデルに匹敵します。

  • ハイブリッド推論サポート:高速かつ低速の思考モードをサポートし、ユーザーはニーズに応じて柔軟に選択できます。

  • 超長コンテキスト理解:256Kのコンテキストウィンドウをネイティブでサポートし、長いテキストタスクで安定した性能を維持します。

  • エージェント機能の強化:エージェントタスクに最適化されており、BFCL-v3、τ-Bench、C3-Benchなどのベンチマークでトップの結果を達成します。

  • 効率的な推論:Grouped Query Attention (GQA) を活用し、複数の量子化フォーマットをサポートし、非常に効率的な推論を実現します。

クイックスタート

SiliconFlow PlaygroundでHunyuan-A13B-Instructモデルを直接試してみてください。

APIへのクイックアクセス

次のPythonの例は、SiliconFlowのAPIエンドポイントを使用してHunyuan-A13B-Instructモデルを呼び出す方法を示しています。さらに詳しい仕様については、SiliconFlow APIドキュメントを参照してください。

from openai import OpenAI

url = 'https://api.siliconflow.com/v1/'
api_key = 'your_api_key'

client = OpenAI(
    base_url=url,
    api_key=api_key
)

# Send a request with streaming output
content = ""
reasoning_content = ""
messages = [
    {"role": "user", "content": "How do you implement a binary search algorithm in Python with detailed comments?"}
]
response = client.chat.completions.create(
    model="tencent/Hunyuan-A13B-Instruct",
    messages=messages,
    stream=True,  # Enable streaming output
    max_tokens=4096,
    extra_body={
        "thinking_budget": 1024
    }
)
# Gradually receive and process the response
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content

# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
    model="tencent/Hunyuan-A13B-Instruct",
    messages=messages,
    stream=True
)

Hunyuan-A13B-Instructは、高性能を求める研究者や開発者にとって理想的な選択です。学術研究、費用対効果の高いAIソリューションの開発、または革新的なアプリケーションの探求において、このモデルは進歩のための堅実な基盤を提供します。

今すぐSiliconFlowでHunyuan-A13B-Instructを使って構築を始めましょう!

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow