DeepSeek-V3-0324 (671B)가 이제 SiliconFlow에서 제공됩니다 — 추론, 작성, 수학 성능 의 주요 개선을 제공합니다.
강화 학습이 복잡한 추론 작업의 성능을 강화합니다
8K token 컨텍스트 윈도우
경쟁력 있는 가격: $0.29/M tokens (input), $1.15/M tokens (output)
DeepSeek-V3-0324는 동일한 Model 크기, 가격 및 API 호환성을 유지하면서도 추론, 작성, 수학에서 큰 성과를 제공합니다. Function Calling, JSON Mode, Prefix, FIM의 지원으로 큰 업그레이드를 제공하는 작은 버전입니다.
빠른 시작
SiliconFlow Playground에서 DeepSeek-V3-0324를 시도해보세요.
API에 대한 빠른 접근
다음 Python 예제는 SiliconFlow의 API 엔드포인트를 통해 DeepSeek-V3-0324 Model을 호출하는 방법을 보여줍니다. 개발자를 위한 더 자세한 API 규격.
from openai import OpenAI
url = 'https://api.siliconflow.com/v1/'
api_key = 'your api_key'
client = OpenAI(
base_url=url,
api_key=api_key
)
content = ""
reasoning_content = ""
messages = [
{"role": "user", "content": "Prove the Pythagorean theorem and provide a simple example."}
]
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V3",
messages=messages,
stream=True,
max_tokens=4096,
extra_body={
"thinking_budget": 1024
}
)
for chunk in response:
if chunk.choices[0].delta.content:
content += chunk.choices[0].delta.content
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
messages.append({"role": "assistant", "content": content})
messages.append({'role': 'user', 'content': "Continue"})
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V3",
messages=messages,
stream=True
)준엄한 추론과 실제 사용을 최적화한 DeepSeek-V3-0324는 더 스마트한 도구, 더 나은 에이전트, 장기 보조자를 구축하는 데 도움을 주Ready입니다.
지금 SiliconFlow에서 DeepSeek-V3를 시도해보고 어떤 것을 만들 수 있는지 확인하세요.