정보에 대해서Ling-mini-2.0
Ling-mini-2.0은 MoE 아키텍처를 기반으로 구축된 작지만 높은 성능을 자랑하는 대형 언어 모델입니다. 총 160억 파라미터를 가지고 있지만, token당 활성화되는 것은 14억 파라미터(Embedding 외 7억 8,900만)에 불과해 매우 빠른 생성이 가능합니다. 효율적인 MoE 설계와 대규모 고품질 훈련 데이터 덕분에, 비록 14억 개의 활성화된 파라미터만을 가지고 있지만 Ling-mini-2.0은 여전히 100억 미만의 밀집 LLM 및 더 큰 MoE Model에 비견할 만한 최상급 다운스트림 태스크 성능을 제공합니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.07
/
$
0.28
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
네
전문가의 혼합
네
총 매개변수
16B
활성화된 매개변수
1.4B
추론
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원됨
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원됨
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

inclusionAI
chat
Ling-flash-2.0
출시일: 2025. 9. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-mini-2.0
출시일: 2025. 9. 10.
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
출시일: 2025. 9. 29.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
출시일: 2025. 10. 11.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
출시일: 2025. 10. 14.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
