DeepSeek-V3-0324이 이제 SiliconFlow에서 실시간으로 진행됩니다

2025. 3. 27.

목차

DeepSeek-V3-0324 (671B)가 이제 SiliconFlow에서 제공됩니다 — 추론, 작성, 수학 성능 의 주요 개선을 제공합니다.

  • 강화 학습이 복잡한 추론 작업의 성능을 강화합니다

  • 8K token 컨텍스트 윈도우

  • 경쟁력 있는 가격: $0.29/M tokens (input), $1.15/M tokens (output)

DeepSeek-V3-0324는 동일한 Model 크기, 가격 및 API 호환성을 유지하면서도 추론, 작성, 수학에서 큰 성과를 제공합니다. Function Calling, JSON Mode, Prefix, FIM의 지원으로 큰 업그레이드를 제공하는 작은 버전입니다.

빠른 시작

SiliconFlow Playground에서 DeepSeek-V3-0324를 시도해보세요.

API에 대한 빠른 접근

다음 Python 예제는 SiliconFlow의 API 엔드포인트를 통해 DeepSeek-V3-0324 Model을 호출하는 방법을 보여줍니다. 개발자를 위한 더 자세한 API 규격.

from openai import OpenAI

url = 'https://api.siliconflow.com/v1/'
api_key = 'your api_key'

client = OpenAI(
    base_url=url,
    api_key=api_key
)

# Send a request with streaming output
content = ""
reasoning_content = ""
messages = [
    {"role": "user", "content": "Prove the Pythagorean theorem and provide a simple example."}
]
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V3",
    messages=messages,
    stream=True,  # Enable streaming output
    max_tokens=4096,
    extra_body={
        "thinking_budget": 1024
    }
)
# Gradually receive and process the response
for chunk in response:
    if chunk.choices[0].delta.content:
        content += chunk.choices[0].delta.content
    if chunk.choices[0].delta.reasoning_content:
        reasoning_content += chunk.choices[0].delta.reasoning_content

# Round 2
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V3",
    messages=messages,
    stream=True
)

준엄한 추론과 실제 사용을 최적화한 DeepSeek-V3-0324는 더 스마트한 도구, 더 나은 에이전트, 장기 보조자를 구축하는 데 도움을 주Ready입니다.

지금 SiliconFlow에서 DeepSeek-V3를 시도해보고 어떤 것을 만들 수 있는지 확인하세요.

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow