blue pastel abstract background with subtle geometric shapes. Image height is 600 and width is 1920

究極のガイド - 2025年のエージェントワークフローに最適なオープンソースLLM

著者
ゲストブログ執筆者:

エリザベス・C.

2025年のエージェントワークフローに最適なオープンソースLLMに関する決定版ガイドです。業界関係者と提携し、主要なベンチマークでパフォーマンスをテストし、アーキテクチャを分析して、AIエージェント構築に最適なモデルを発見しました。最先端の推論モデルから専門的なコーディングエージェント、マルチモーダルシステムまで、これらのモデルはツール使用、関数呼び出し、自律的なタスク実行、および実世界でのエージェント展開において優れており、SiliconFlowのようなサービスを利用して、開発者や企業が次世代のAIパワードエージェントアプリケーションを構築するのを支援します。2025年のトップ3の推奨モデルは、GLM-4.5-Air、Qwen3-Coder-30B-A3B-Instruct、およびQwen3-30B-A3B-Thinking-2507です。これらはそれぞれ、優れたエージェント機能、ツール統合、およびオープンソースLLMエージェントワークフローの限界を押し広げる能力のために選ばれました。



エージェントワークフローのためのオープンソースLLMとは?

エージェントワークフローのためのオープンソースLLMは、推論、計画、ツール使用、および外部環境との相互作用を通じて複雑なタスクを自律的に実行するように設計された、特殊な大規模言語モデルです。従来のチャットモデルとは異なり、これらのエージェント対応LLMは、複雑な目標を分解し、意思決定を行い、関数を呼び出し、ウェブを閲覧し、コードを記述および実行し、問題を反復的に解決することができます。これらは関数呼び出し、API統合、および多段階タスク実行に優れています。このテクノロジーにより、開発者はソフトウェア開発やデータ分析からウェブ自動化、エンタープライズワークフローオーケストレーションまで、あらゆるものを処理できる自律型AIエージェントを構築でき、オープンソースのアクセシビリティを通じて透明性、カスタマイズ性、費用対効果を維持できます。

GLM-4.5-Air

GLM-4.5-Airは、Mixture-of-Experts(MoE)アーキテクチャに基づいて構築された、AIエージェントアプリケーション向けに特別に設計された基盤モデルです。ツール使用、ウェブブラウジング、ソフトウェア開発、フロントエンド開発向けに広範に最適化されており、Claude CodeやRoo Codeなどのコーディングエージェントとのシームレスな統合を可能にします。GLM-4.5はハイブリッド推論アプローチを採用しており、複雑な推論タスクから日常的なユースケースまで、幅広いアプリケーションシナリオに効果的に適応できます。

サブタイプ:
推論、MoE、106B
開発元:zai
GLM-4.5-Air

GLM-4.5-Air:目的別に構築されたエージェント基盤モデル

GLM-4.5-Airは、AIエージェントアプリケーション向けに特別に設計された基盤モデルで、合計106Bのパラメータと12Bのアクティブパラメータを持つMixture-of-Experts(MoE)アーキテクチャに基づいて構築されています。ツール使用、ウェブブラウジング、ソフトウェア開発、フロントエンド開発向けに広範に最適化されており、Claude CodeやRoo Codeなどのコーディングエージェントとのシームレスな統合を可能にします。GLM-4.5はハイブリッド推論アプローチを採用しており、複雑な推論タスクから日常的なユースケースまで、幅広いアプリケーションシナリオに効果的に適応できます。131Kのコンテキストウィンドウと、SiliconFlowの競争力のある価格設定(出力トークンあたり$0.86/M、入力トークンあたり$0.14/M)により、エージェントワークフローに優れた価値を提供します。

長所

  • MoE効率を備えたAIエージェントアプリケーション向けに目的別に構築。
  • ツール使用とウェブブラウジング向けに広範に最適化。
  • Claude Codeのようなコーディングエージェントとのシームレスな統合。

短所

  • フラッグシップモデルよりもアクティブパラメータ数が少ない。
  • 高度に専門化されたドメインではファインチューニングが必要な場合がある。

私たちが気に入っている理由

  • AIエージェントワークフローのためにゼロから明示的に設計された唯一のオープンソースモデルであり、最適化されたツール使用、ウェブブラウジング、コーディングエージェントとのシームレスな統合を、卓越した効率とコストで提供します。

Qwen3-Coder-30B-A3B-Instruct

Qwen3-Coder-30B-A3B-Instructは、AlibabaのQwenチームによって開発されたQwen3シリーズのコードモデルです。合理化され最適化されたモデルとして、強化されたコーディング機能に焦点を当てながら、印象的なパフォーマンスと効率を維持しています。エージェントコーディング、エージェントブラウザ使用、その他の基本的なコーディングタスクなどの複雑なタスクにおいて、オープンソースモデルの中で顕著な性能上の優位性を示しています。

サブタイプ:
コーダー、MoE、30B
開発元:Qwen
Qwen3-Coder-30B-A3B-Instruct

Qwen3-Coder-30B-A3B-Instruct:専門的なエージェントコーディングの強力なモデル

Qwen3-Coder-30B-A3B-Instructは、Qwen3シリーズの特殊なコードモデルで、合計30.5Bのパラメータと3.3Bのアクティブパラメータを持っています。エージェントコーディング、エージェントブラウザ使用、および基本的なコーディングタスクなどの複雑なタスクにおいて、オープンソースモデルの中で顕著な性能上の優位性を示しています。このモデルは、256Kトークン(262K)の長いコンテキストをネイティブにサポートしており、最大1Mトークンまで拡張可能で、リポジトリ規模の理解と処理を向上させます。Qwen CodeやCLINEのようなプラットフォーム向けに堅牢なエージェントコーディングサポートを提供し、特別に設計された関数呼び出し形式を特徴としています。SiliconFlowの価格設定(出力トークンあたり$0.4/M、入力トークンあたり$0.1/M)により、エージェントコーディングワークフローに優れた価値を提供します。

長所

  • エージェントコーディングタスクにおける最先端のパフォーマンス。
  • エージェントブラウザ使用とツール統合に優れる。
  • 256Kのネイティブコンテキスト、1Mトークンまで拡張可能。

短所

  • コーディングに特化しており、フラッグシップモデルよりも汎用性が低い。
  • 最良の結果を得るにはエージェントフレームワークの統合が必要。

私たちが気に入っている理由

  • エージェントコーディングワークフローの決定的なスペシャリストであり、自律的なコード生成、リポジトリ理解、ツールベースのコーディングにおいて最先端のパフォーマンスを提供します。これには、大規模なコンテキストと目的別に構築されたエージェント機能が含まれます。

Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507は、AlibabaのQwenチームがリリースしたQwen3シリーズの最新の思考モデルです。合計305億のパラメータと33億のアクティブパラメータを持つMixture-of-Experts(MoE)モデルとして、複雑なタスクの機能強化に焦点を当てています。このモデルは、推論タスクにおいて大幅に改善されたパフォーマンスを示し、エージェント機能に優れています。

サブタイプ:
推論、MoE、30B
開発元:Qwen
Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507:複雑なエージェントのための高度な推論

Qwen3-30B-A3B-Thinking-2507は、Qwen3シリーズの最新の思考モデルで、合計30.5Bのパラメータと3.3Bのアクティブパラメータを持っています。論理推論、数学、科学、コーディング、および通常人間の専門知識を必要とする学術ベンチマークを含む推論タスクにおいて、大幅に改善されたパフォーマンスを示します。このモデルは、指示の追従、ツール使用、テキスト生成、人間の好みとの整合性など、著しく優れた汎用機能を示します。256Kの長いコンテキスト理解能力をネイティブにサポートしており、100万トークンまで拡張可能です。このバージョンは、「思考モード」のために特別に設計されており、段階的な推論を通じて非常に複雑な問題に取り組み、エージェント機能に優れています。SiliconFlowの価格設定は、出力トークンあたり$0.4/M、入力トークンあたり$0.1/Mです。

長所

  • 複雑な推論タスクのための専門的な「思考モード」。
  • 数学的および論理的推論において優れたパフォーマンス。
  • ツール使用を伴う優れたエージェント機能。

短所

  • 思考モードでは応答時間が長くなる可能性がある。
  • 最適なエージェント動作のためには慎重なプロンプトエンジニアリングが必要。

私たちが気に入っている理由

  • 高度な推論とエージェント機能を組み合わせることで、AIエージェントが深く段階的な思考を通じて非常に複雑な多段階問題に取り組むことを可能にします。これには、ツール使用、大規模なコンテキスト、および卓越した効率が維持されます。

エージェント対応LLM比較

この表では、2025年のエージェントワークフロー向け主要オープンソースLLMを、それぞれ独自の強みを持つモデルとして比較します。目的別に構築されたエージェントアプリケーションには、GLM-4.5-Airが最適化されたツール使用とウェブブラウジングを提供します。専門的なエージェントコーディングには、Qwen3-Coder-30B-A3B-Instructが最先端のパフォーマンスを発揮します。複雑な推論エージェントには、Qwen3-30B-A3B-Thinking-2507が高度な思考機能を提供します。この比較表は、特定のワークフローニーズに合ったモデルを選択するのに役立ちます。

番号 モデル 開発元 サブタイプ SiliconFlow価格(出力)主な強み
1GLM-4.5-Airzai推論、MoE、106B$0.86/Mトークン目的別に構築されたエージェント基盤
2Qwen3-Coder-30B-A3B-InstructQwenコーダー、MoE、30B$0.4/Mトークン最先端のエージェントコーディング
3Qwen3-30B-A3B-Thinking-2507Qwen推論、MoE、30B$0.4/Mトークンエージェントのための高度な推論

よくある質問

2025年のトップ3は、GLM-4.5-Air、Qwen3-Coder-30B-A3B-Instruct、およびQwen3-30B-A3B-Thinking-2507です。これらのモデルはそれぞれ、ツール使用、関数呼び出し、推論、および実世界のエージェントアプリケーションにおける自律的なタスク実行を含むエージェント機能で際立っていました。

詳細な分析により、さまざまなエージェントニーズに対応するいくつかの主要モデルが示されています。GLM-4.5-Airは、広範なツール使用とウェブブラウジングの最適化を備えた汎用エージェントアプリケーションの最有力候補です。Qwen3-Coder-30B-A3B-Instructは、自律的なコード生成とリポジトリ理解に優れており、エージェントコーディングワークフローに最適です。Qwen3-30B-A3B-Thinking-2507は、高度な推論と段階的な問題解決を必要とするエージェントに理想的です。最大規模の展開には、Qwen3-Coder-480B-A35B-Instructやmoonshotai/Kimi-K2-Instructのようなモデルがエンタープライズグレードのエージェント機能を提供します。

関連トピック

究極ガイド - 2025年インドネシア語向けベストオープンソースLLM 究極ガイド - 2025年におけるフランス語向け最高のオープンソースLLM 究極ガイド - 2025年スマートIoTに最適なオープンソースLLM 2025年ベンガル語向け最高のオープンソースLLM - 究極ガイド 究極ガイド - 2025年 教育&チュータリングに最適なオープンソースLLM 2025年サイバーセキュリティ&脅威分析に最適なオープンソースLLM 究極ガイド - 2025年戦略立案に最適なオープンソースLLM 究極ガイド - 2025年、ディープリサーチに最適なオープンソースLLM 2025年エッジデバイス向けベスト小型拡散モデル 究極ガイド - 2025年リアルタイムレンダリングに最適な軽量AI 究極ガイド - 2025年版 オンデバイス画像編集に最適なオープンソースAI 究極ガイド - 2025年版オンデバイスチャットボット向け最高の小規模LLM 2025年における中国語(北京語)向け最高のオープンソースLLM 究極のガイド - 2025年で最も安価な動画&マルチモーダルAIモデル 2025年ドイツ語向け最高のオープンソースLLM 究極のガイド - 2025年、韓国語に最適なオープンソースLLM 2025年テルグ語向け最高のオープンソースLLM 2025年文学向けベストオープンソースLLM 究極のガイド - 2025年の法務文書分析に最適なオープンソースLLM 究極のガイド - 2025年イタリア語に最適なオープンソースLLM