정보에 대해서Ring-flash-2.0
Ring-flash-2.0은(는) Ling-flash-2.0-base에 기반한 고성능 사유 Model로서 깊이 최적화되었습니다. 이는 총 100B 매개변수를 가진 전문가 혼합(MoE) Model로서, Inference마다 6.1B만 활성화됩니다. 이 Model은 MoE LLM에서 강화 학습(RL)의 훈련 불안정성 문제를 해결하기 위해 독립적으로 개발된 'icepop' 알고리즘을 활용하여 확장된 RL 학습 사이클 전반에 걸쳐 복잡한 추론 능력을 지속적으로 향상시킵니다. Ring-flash-2.0은 수학 경시 대회, 코드 생성, 논리적 추론을 포함한 도전적인 벤치마크 전반에서 상당한 진전을 보여줍니다. 그 성능은 40B 매개변수 이하의 SOTA 밀집 Model을 넘어서는 동시에, 더 큰 공개 가중치 MoE Model 및 비공개 고성능 사유 Model API와 경쟁합니다. 더욱 놀라운 것은, Ring-flash-2.0은 주로 복잡한 추론을 위해 설계되었지만 창의적 글쓰기에서도 강력한 능력을 보여준다는 것입니다. 효율적인 아키텍처 덕분에 고속 Inference를 달성하여 높은 동시성 시나리오에서 사유 Model의 Inference 비용을 크게 줄입니다.
사용 가능한 Serverless
쿼리를 즉시 실행하고 사용한 만큼만 지불하세요.
$
0.14
/
$
0.57
1M 토큰당 (Input/Output)
메타데이터
사양
주
Available
건축
교정된
네
전문가의 혼합
네
총 매개변수
100B
활성화된 매개변수
6.1B
추론
아니요
Precision
FP8
콘텍스트 길이
131K
Max Tokens
131K
지원됨 기능
Serverless
지원됨
Serverless LoRA
지원하지 않음
Fine-tuning
지원하지 않음
Embedding
지원하지 않음
Rerankers
지원하지 않음
지원 Image Input
지원하지 않음
JSON Mode
지원하지 않음
구조화된 Outputs
지원하지 않음
도구
지원하지 않음
Fim Completion
지원하지 않음
Chat Prefix Completion
지원됨
다른 모델과 비교
이 Model이 다른 것들과 어떻게 비교되는지 보세요.

inclusionAI
chat
Ling-flash-2.0
출시일: 2025. 9. 18.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-mini-2.0
출시일: 2025. 9. 10.
Total Context:
131K
Max output:
131K
Input:
$
0.07
/ M Tokens
Output:
$
0.28
/ M Tokens

inclusionAI
chat
Ring-flash-2.0
출시일: 2025. 9. 29.
Total Context:
131K
Max output:
131K
Input:
$
0.14
/ M Tokens
Output:
$
0.57
/ M Tokens

inclusionAI
chat
Ling-1T
출시일: 2025. 10. 11.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens

inclusionAI
chat
Ring-1T
출시일: 2025. 10. 14.
Total Context:
131K
Max output:
Input:
$
0.57
/ M Tokens
Output:
$
2.28
/ M Tokens
