최신식

AI 모델 라이브러리

하나의 API로 200개 이상의 최첨단 AI Models에서 Inference를 실행하고 몇 초 만에 배포할 수 있습니다

최신식

AI 모델 라이브러리

하나의 API로 200개 이상의 최첨단 AI Models에서 Inference를 실행하고 몇 초 만에 배포할 수 있습니다

최신식

AI 모델 라이브러리

하나의 API로 200개 이상의 최첨단 AI Models에서 Inference를 실행하고 몇 초 만에 배포할 수 있습니다

DeepSeek

Text Generation

DeepSeek-V3.2

출시일: 2025. 12. 4.

DeepSeek-V3.2는 고도의 계산 효율성, 뛰어난 추론 및 에이전트 성능을 조화시키는 모델입니다. 이 접근 방식은 세 가지 주요 기술적 돌파구를 기반으로 합니다: DeepSeek Sparse Attention (DSA)은 계산 복잡성을 상당히 줄이면서도 모델 성능을 유지하는 효율적인 주의 메커니즘으로, 특히 긴 문맥 시나리오에 최적화되어 있습니다; Scalable Reinforcement Learning Framework는 GPT-5와 비교할 만한 성능과 Gemini-3.0-Pro의 고성능 변형과 동등한 추론 능력을 가능하게 합니다; 그리고 대규모 에이전트 태스크 합성 파이프라인은 도구 사용 시나리오에 추론을 통합하여 복잡한 상호작용 환경에서의 규정 준수와 일반화를 향상시킵니다. 이 모델은 2025 국제 수학 올림피아드(IMO)와 국제 정보 올림피아드(IOI)에서 금메달 성적을 달성했습니다....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.42

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.2-Exp

출시일: 2025. 10. 10.

DeepSeek-V3.2-Exp는 DeepSeek Model의 실험 버전으로, V3.1-Terminus를 기반으로 구축되었습니다. 긴 컨텍스트에 대해 더 빠르고 효율적인 학습 및 Inference를 위해 DeepSeek Sparse Attention(DSA)를 선보입니다....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.41

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1-Terminus

출시일: 2025. 9. 29.

DeepSeek-V3.1-Terminus는 V3.1의 강점 위에 사용자 피드백을 반영하여 업데이트된 버전입니다. 언어 일관성을 향상시켜 중국어-영어 혼합 텍스트와 가끔 발생하는 이상한 문자를 줄였습니다. 또한, 더욱 강력한 코드 에이전트 및 검색 에이전트 성능으로 업그레이드되었습니다....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3.1

출시일: 2025. 8. 25.

DeepSeek-V3.1은 사고 모드와 비사고 모드를 모두 지원하는 하이브리드 Model입니다. 후속 훈련 최적화를 통해 도구 사용과 에이전트 작업에서 Model의 성능이 크게 향상되었습니다. DeepSeek-V3.1-Think는 DeepSeek-R1-0528에 비해 유사한 수준의 답변 품질을 달성하면서도 더 빠르게 응답합니다....

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-V3

출시일: 2024. 12. 26.

DeepSeek-V3-0324은 이전 버전인 DeepSeek-V3에 비해 여러 주요 측면에서 눈에 띄는 개선을 보여주며, 여기에는 추론 성능의 큰 향상, 더 강력한 프론트엔드 개발 기술, 그리고 더 스마트한 도구 사용 능력이 포함됩니다....

Total Context:

164K

Max output:

164K

Input:

$

0.25

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1

출시일: 2025. 5. 28.

DeepSeek-R1-0528은(는) 업그레이드된 Model로서 복잡한 추론 작업을 처리하는 데 있어 상당한 개선을 보여주며, 환각률 감소, 기능 호출에 대한 향상된 지원, 그리고 바이브 코딩을 위한 더 나은 경험을 제공합니다. O3 및 Gemini 2.5 Pro와 비교할 만한 성능을 달성합니다....

Total Context:

164K

Max output:

164K

Input:

$

0.5

/ M Tokens

Output:

$

2.18

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-32B

출시일: 2025. 1. 20.

DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B를 기반으로 한 정제된 모델입니다. 이 Model은 DeepSeek-R1에 의해 생성된 80만 개의 큐레이트된 샘플을 사용하여 미세 조정되었으며, 수학, 프로그래밍 및 논리 작업 전반에 걸쳐 뛰어난 성능을 보여줍니다. AIME 2024, MATH-500 및 GPQA Diamond를 포함한 다양한 벤치마크에서 인상적인 결과를 달성했으며, 특히 MATH-500에서 94.3%의 정확도를 기록하여 뛰어난 수학적 추론 능력을 보여줍니다....

Total Context:

131K

Max output:

131K

Input:

$

0.18

/ M Tokens

Output:

$

0.18

/ M Tokens

DeepSeek

Text Generation

DeepSeek-R1-Distill-Qwen-14B

출시일: 2025. 1. 20.

DeepSeek-R1-Distill-Qwen-14B는 Qwen2.5-14B를 기반으로 한 증류된 Model입니다. 이 Model은 DeepSeek-R1에 의해 생성된 80만 개의 큐레이션 샘플을 사용하여 미세 조정되었으며, 강력한 추론 능력을 보여줍니다. MATH-500에서 93.9%의 정확도, AIME 2024에서 69.7%의 통과율, CodeForces에서 1481의 등급을 달성하여 수학 및 프로그래밍 작업에서의 강력한 능력을 입증하였습니다....

Total Context:

131K

Max output:

131K

Input:

$

0.1

/ M Tokens

Output:

$

0.1

/ M Tokens

DeepSeek

Text Generation

deepseek-vl2

출시일: 2024. 12. 13.

DeepSeek-VL2는 4.5B 활성 매개변수만으로 우수한 성능을 달성하기 위해 희소 활성 MoE 구조를 사용하여 DeepSeekMoE-27B를 기반으로 개발된 혼합 전문가(MoE) Vision-언어 Model입니다. 이 Model은 시각적 질문 응답, 광학 문자 인식, 문서/표/차트 이해 및 시각적 정지 등의 다양한 작업에서 뛰어난 성능을 발휘합니다. 기존의 오픈 소스 밀집 Model 및 MoE 기반 Model과 비교하여 동일하거나 더 적은 활성 매개변수를 사용하여 경쟁력 있는 또는 최첨단 성능을 보여줍니다....

Total Context:

4K

Max output:

4K

Input:

$

0.15

/ M Tokens

Output:

$

0.15

/ M Tokens

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow