目次
SiliconFlowは、gpt-oss-120Bとgpt-oss-20Bの発売を発表できることを嬉しく思います。これらは最先端のオープンウェイト言語モデルで、現在私たちのプラットフォームで利用可能です。MoEアーキテクチャをベースに、gpt-oss-120Bは1170億パラメータを持ち、トークンごとに51億が活性化され、gpt-oss-20Bは210億パラメータを持ち、3.6億がトークンごとに活性化されます。
OpenAIの高度な内部モデル(o3を含む)にインスパイアされた強化学習技術で訓練されたgpt-ossは、優れた指示追従性、ウェブ検索やPythonコード実行などのツール使用、設定可能な推論努力を備えたエージェンティックワークフローを実現します。これにより、複雑な推論と低レイテンシーなアウトプットの両方を可能にします。
複雑な推論パイプラインを構築するにせよ、洗練されたツール使用を可能にするにせよ、大規模なAIサービスを展開するにせよ、SiliconFlow上のgpt-ossは、革新を加速するための柔軟性とパワーを提供します。これには、完全に最適化された展開およびプロダクション対応のAPIサービスがバックアップされています。
SiliconFlowのgpt-oss APIで期待できること:
費用対効果の高い価格設定:
gpt-oss-120b $0.09/M トークン (Input) と $0.45/M トークン (Output);
gpt-oss-20b $0.04/M トークン (Input) と $0.18/M トークン (Output).
拡張コンテキストウィンドウ: 複雑なタスクのための131Kコンテキストウィンドウ。
主な機能とベンチマークパフォーマンス
SiliconFlow上のOpenAIのgpt-ossモデルは、幅広いAIタスクに適応する多才な能力を提供します:
設定可能な推論努力: 特定の使用事例とレイテンシー要件に基づいて推論努力(低、中、高)を簡単に調整可能です。
完全な思考の流れ: Modelの推論プロセスへの完全なアクセスを提供し、デバッグが容易でアウトプットへの信頼性が向上します。
細調整可能: パラメータのFine-tuningを通じて使用ケースにモデルを完全にカスタマイズ可能です。
エージェンティック能力: モデルのネイティブな機能呼び出し、ウェブ閲覧、Pythonコード実行、および構造化されたOutPutの能力を活用します。
また、gpt-oss-120bとgpt-oss-20bは、標準の学術ベンチマークにおいて能力が評価され、他のOpenAI推論モデルと比較されています。これには、o3、o3‑mini、およびo4-miniが含まれます:
gpt-oss-120bは、OpenAI o3‑miniをしのぎ、競技プログラミング(Codeforces)、一般的な問題解決(MMLUおよびHLE)およびツール呼び出し(TauBench)において、OpenAI o4-miniに並ぶかそれを超えます。さらに、健康関連のクエリ(HealthBench)や競技数学(AIME 2024 & 2025)においてもo4-miniを上回ります。
gpt-oss-20bは、これらの同じ評価において小型でありながら、OpenAI o3‑miniに匹敵またはそれを超え、競技数学と健康においても上回っています。
カテゴリ | ベンチマーク | gpt-oss-120B | gpt-oss-20B | OpenAI o3-mini | OpenAI o4-mini |
|---|---|---|---|---|---|
コーディング | Codeforces | 2622 | 2516 | 2073 (ツールなし) | 2719 |
ツール使用 | TauBench | 🥇 67.8 | 54.8 | – | 65.6 |
健康 | HealthBench | 🥇 57.6 | 42.5 | 37.8 | 50.1 |
推論 & 結論 | AIME 2024 & 2025 | 96.6 / 97.9 | 96 / 98.7 | 87.3 / 86.5 | 98.7 / 99.5 |
MMLU | 90 | 85.3 | 87 | 93 | |
HLE | 🥇 19 | 17.3 | 13.4 (ツールなし) | 17.7 | |
GPQA-Diamond | 80.1 | 71.5 | 77 | 81.4 |
これらの機能と競合Benchmarkパフォーマンスにより、gpt-ossは開発者に能力と費用対効果の最適なバランスを提供します。
gpt-ossの技術的なハイライト
これらの能力とBenchmark結果を基に、gpt-ossの技術的基盤は、最先端のアーキテクチャと高度なトレーニング方法論を組み合わせて高性能を実現します:
高度なトレーニング & アーキテクチャ:
理由や効率、現実世界での実用性を強調した、OpenAIの最も高度な前トレーニングと後トレーニング技術を使用してトレーニングされています。
トランスフォーマーバックボーン上にエキスパートの混成 (MoE)で構築され、gpt-oss-120bはトークンごとに51億パラメータを活性化(総数1170億)、gpt-oss-20bは3.6億(総数210億)を活性化します。
密集と局所的にバンド化されたスパースアテンションを交互に採用し、8人グループのクエリアテンションと回転位置埋め込み (RoPE)を組み合わせ、128Kトークンまでのコンテキストをサポートします。
トレーニングデータは、STEM、コーディング、および一般的な知識の英語テキストに焦点を当て、オープンソースのo200k_harmonyトークナイザーでトークン化されています。
後トレーニング & 推論:
プレトレーニング後、モデルは監督されたFine-tuningと高計算強化学習ステージを経てOpenAIModelSpecに合わせて調整されます。
このプロセスは思考の連鎖(CoT)推論およびツール使用能力を強化し、システムプロンプトを介して低、中、高の推論努力をサポートします。
すぐに始めよう
探求: gpt-ossをSiliconFlow Playgroundで試してみてください。
統合: OpenAI互換APIを使用します。SiliconFlow APIドキュメントで完全なAPI仕様を参照してください。
今日、SiliconFlowの高性能APIを介してgpt-ossを使用して構築を開始しましょう!

