DeepSeek-V3-0324 が SiliconFlow でライブになりました

2025/03/27

目次

DeepSeek-V3-0324 (671B) が SiliconFlow 上でライブになりました — 推論、執筆、数学のパフォーマンスにおける大きな改善を提供します。

  • 強化学習が複雑な推論タスクのパフォーマンスを向上させます

  • 8K token コンテキストウィンドウ

  • 競争力のある価格: $0.29/M tokens (Input)、$1.15/M tokens (Output)

DeepSeek-V3-0324 はモデルサイズ、価格設定、API互換性を保持しながら、推論、執筆、数学において大きな成果をもたらします。Function Calling、JSON Mode、Prefix、FIM のサポート付きで、大きなアップグレードを提供する小型バージョンです。

クイックスタート

SiliconFlow Playground で DeepSeek-V3-0324 を試してみてください。

APIへの迅速アクセス

次のPythonの例は、SiliconFlow の API エンドポイント経由で DeepSeek-V3-0324 Model を呼び出す方法を示しています。開発者向けのより詳しい API 仕様。

from openai import OpenAI

url = 'https://api.siliconflow.com/v1/'
api_key = 'your api_key'

client = OpenAI(
    base_url=url,
    api_key=api_key
)

# Send a request with streaming output
content = ""
reasoning_content = ""
messages = [
    {"role": "user", "content": "Prove the Pythagorean theorem and provide a simple example."}
]
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V3",
    messages=messages,
    stream=True,  # Enable streaming output
    max_tokens=4096,
    extra_body={
        "thinking_budget": 1024
    }
)
# Gradually receive and process the response
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content

# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V3",
    messages=messages,
    stream=True
)

要求の厳しい推論および実世界での利用に最適化された DeepSeek-V3-0324 は、よりスマートなツール、より良いエージェント、そして長文の助手を構築する手助けをする準備ができています。

今すぐ SiliconFlow 上で DeepSeek-V3 を試して何が作れるか見てみましょう。

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

AI開発を 加速する準備はできていますか?

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow

Japanese

© 2025 SiliconFlow