하나의 플랫폼
모든 AI Inference 필요

하나의 플랫폼
모든 AI Inference 필요

강력한 AI Models를 더 빠르고, 더 스마트하게, 예측 가능한 비용으로 모든 규모에서 실행하세요.

강력한 AI Models를 더 빠르고, 더 스마트하게, 예측 가능한 비용으로 모든 규모에서 실행하세요.

SiliconFlow AI 클라우드

모든 주의력을 기울이세요

만들기, 탐험하기, 창조하기

인공지능의 야망을 행동으로 옮기기

SiliconFlow AI 클라우드

모든 주의력을 기울이세요

만들기, 탐험하기, 창조하기

인공지능의 야망을 행동으로 옮기기

코딩

코드 이해, 코드 생성, 인라인 수정, 실시간 자동 완성, 구조적 편집 및 구문 안전 제안

에이전트

다단계 추론, 계획 수립, 도구 사용 및 워크플로 실행은 에이전트 시스템이 복잡한 작업을 처리하도록 합니다.

RAG

지식 기반에서 관련 정보를 검색하여 정확하고 실시간으로 응답할 수 있습니다.

콘텐츠 생성

Text, Image 및 Video 생성, 소셜 미디어 콘텐츠 제작, 분석 보고서 생성

AI 어시스턴트

워크플로우, 다중 에이전트, 고객 지원 봇, 문서 검토, 데이터 분석

검색

쿼리 이해, 장기 문맥 요약, 실시간 답변, 개인화된 추천, 실행 가능한 통찰력 전달

AI 모델

고속 Inference를 위한

Text, Image, Video, 그리고 그 이상

모든 오픈 및 상업용 LLM 및 Multimodal Model에 대한 하나의 API

AI 모델

고속 Inference를 위한

Text, Image, Video, 그리고 그 이상

모든 오픈 및 상업용 LLM 및 Multimodal Model에 대한 하나의 API

Moonshot AI

chat

Kimi-K2.5

출시일: 2026. 1. 30.

Total Context:

262K

Max output:

262K

Input:

$

0.55

/ M Tokens

Output:

$

3.0

/ M Tokens

MiniMaxAI

chat

MiniMax-M2.1

출시일: 2025. 12. 23.

Total Context:

197K

Max output:

131K

Input:

$

0.29

/ M Tokens

Output:

$

1.2

/ M Tokens

Z.ai

chat

GLM-4.7

출시일: 2025. 12. 23.

Total Context:

205K

Max output:

205K

Input:

$

0.42

/ M Tokens

Output:

$

2.2

/ M Tokens

DeepSeek

chat

DeepSeek-V3.2

출시일: 2025. 12. 4.

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.42

/ M Tokens

DeepSeek

chat

DeepSeek-V3.2-Exp

출시일: 2025. 10. 10.

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

0.41

/ M Tokens

Z.ai

chat

GLM-4.6V

출시일: 2025. 12. 8.

Total Context:

131K

Max output:

131K

Input:

$

0.3

/ M Tokens

Output:

$

0.9

/ M Tokens

DeepSeek

chat

DeepSeek-V3.1-Terminus

출시일: 2025. 9. 29.

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-V3.1

출시일: 2025. 8. 25.

Total Context:

164K

Max output:

164K

Input:

$

0.27

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-V3

출시일: 2024. 12. 26.

Total Context:

164K

Max output:

164K

Input:

$

0.25

/ M Tokens

Output:

$

1.0

/ M Tokens

DeepSeek

chat

DeepSeek-R1

출시일: 2025. 5. 28.

Total Context:

164K

Max output:

164K

Input:

$

0.5

/ M Tokens

Output:

$

2.18

/ M Tokens

MiniMaxAI

chat

MiniMax-M2

출시일: 2025. 10. 28.

Total Context:

197K

Max output:

131K

Input:

$

0.3

/ M Tokens

Output:

$

1.2

/ M Tokens

Qwen

chat

Qwen3-VL-32B-Instruct

출시일: 2025. 10. 21.

Total Context:

262K

Max output:

262K

Input:

$

0.2

/ M Tokens

Output:

$

0.6

/ M Tokens

제품

유연한 배포 옵션,

모든 사용 사례를 위해 구축됨

모델을 Serverless하게 실행하거나, Dedicated Endpoints에서 실행하거나, 자신의 설정을 사용하세요.

제품

유연한 배포 옵션,

모든 사용 사례를 위해 구축됨

모델을 Serverless하게 실행하거나, Dedicated Endpoints에서 실행하거나, 자신의 설정을 사용하세요.

Serverless

Serverless

모든 Model을 즉시 실행하십시오. 설정이 필요 없으며, 하나의 API 호출로 사용한 만큼만 지불하면 됩니다.

Fine-tuning

Fine-tuning

강력한 Models를 사용자 사례에 맞게 맞춤화하고 한 번의 클릭으로 배포하세요.

Reserved GPUs

Reserved GPUs

안정적인 성능과 예측 가능한 청구를 위한 보장된 GPU 용량.

엘라스틱 GPU

엘라스틱 GPU

유연한 FaaS 배포와 신뢰할 수 있고 확장 가능한 Inference.

AI 게이트웨이

AI 게이트웨이

스마트 라우팅, 요금 한도 및 비용 관리를 통한 통합 액세스.

훈련 및 미세 조정

데이터 접근 및 처리, model 학습, 성능 조정 ...

Inference & 배포

자체 개발한 모달 Inference 엔진, 종단 간 최적화 ...

고성능 GPU

NVIDIA H100 / H200, AMD MI300, RTX 4090 …

장점

개발자를 위해 만들어진

정말 신경 쓰다

속도, 정확성, 신뢰성, 그리고 공정한 가격—타협은 없다.

장점

개발자를 위해 만들어진

정말 신경 쓰다

속도, 정확성, 신뢰성, 그리고 공정한 가격—타협은 없다.

장점

개발자를 위해 만들어진

정말 신경 쓰다

속도, 정확성, 신뢰성, 그리고 공정한 가격—타협은 없다.

속도

번개처럼 빠른 Inference 는 언어 및 Multimodal Model 에 모두 적용됩니다.

유연성

Serverless, 전용 또는 사용자 지정 - 모델을 원하는 방식으로 실행하십시오.

효율성

더 높은 처리량, 더 낮은 대기 시간, 그리고 더 나은 가격.

개인정보 보호

데이터가 저장되지 않습니다. 당신의 Models는 당신의 것입니다.

제어

미세 조정, 배포, 그리고 모형을 원하는 방식으로 확장하세요—인프라 문제나 종속 없음.

단순함

모든 모델에 대한 하나의 API, 완전히 OpenAI 호환.

자주 묻는 질문

자주 묻는 질문

어떤 종류의 Models을 귀하의 플랫폼에 배포할 수 있습니까?

귀하의 가격 구조는 어떻게 작동합니까?

모델을 나의 특정 요구에 맞게 맞출 수 있나요?

개발자를 위해 어떤 지원을 제공하나요?

귀하의 API 성능과 신뢰성을 어떻게 보장합니까?

귀하의 플랫폼은 OpenAI 표준과 호환됩니까?

어떤 종류의 Models을 귀하의 플랫폼에 배포할 수 있습니까?

귀하의 가격 구조는 어떻게 작동합니까?

모델을 나의 특정 요구에 맞게 맞출 수 있나요?

개발자를 위해 어떤 지원을 제공하나요?

귀하의 API 성능과 신뢰성을 어떻게 보장합니까?

귀하의 플랫폼은 OpenAI 표준과 호환됩니까?

어떤 종류의 Models을 귀하의 플랫폼에 배포할 수 있습니까?

귀하의 가격 구조는 어떻게 작동합니까?

모델을 나의 특정 요구에 맞게 맞출 수 있나요?

개발자를 위해 어떤 지원을 제공하나요?

귀하의 API 성능과 신뢰성을 어떻게 보장합니까?

귀하의 플랫폼은 OpenAI 표준과 호환됩니까?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

AI 개발을 가속화할 준비가 되셨나요?

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow

Korean

© 2025 SiliconFlow