정보에 대해서Ling-flash-2.0
Ling-flash-2.0은 InclusionAI에서 제작한 언어 Model로 총 1000억 개의 매개변수를 가지고 있습니다. 이 중 61억 개는 token당 활성화되며, 48억 개는 비-Embedding입니다. Ling 2.0 아키텍처 시리즈의 일환으로서, 가벼우면서도 강력한 전문가 혼합(Mixture-of-Experts, MoE) Model로 설계되었습니다. 이 Model은 40B 레벨의 밀집 Model 및 다른 더 큰 MoE Model과 비교하여 성능을 비슷하거나 그 이상으로 제공할 것을 목표로 하지만, 활성화되는 매개변수 수는 상당히 적습니다. 이 Model은 극한의 아키텍처 디자인 및 훈련 방법을 통해 높은 성능과 효율성을 달성하는 데 중점을 둔 전략을 나타냅니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.14
/
$
0.57
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
아니요
전문가의 혼합
네
총 매개변수
100B
활성화된 매개변수
6.1B
추론
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원됨
구조화된 Outputs
지원하지 않음
도구
지원됨
Fim Completion
지원하지 않음
Chat Prefix Completion
지원됨
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

inclusionAI
chat
Ling-flash-2.0
출시일: 2025. 9. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-mini-2.0
출시일: 2025. 9. 10.
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
출시일: 2025. 9. 29.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
출시일: 2025. 10. 11.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
출시일: 2025. 10. 14.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
