ما هي نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء؟
نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء هي نماذج لغوية كبيرة متخصصة مصممة لتنفيذ المهام المعقدة بشكل مستقل من خلال الاستدلال والتخطيط واستخدام الأدوات والتفاعل مع البيئات الخارجية. على عكس نماذج الدردشة التقليدية، يمكن لهذه النماذج القادرة على العمل كوكلاء تقسيم الأهداف المعقدة، واتخاذ القرارات، واستدعاء الدوال، وتصفح الويب، وكتابة وتنفيذ التعليمات البرمجية، وحل المشكلات بشكل تكراري. إنها تتفوق في استدعاء الدوال، وتكامل واجهات برمجة التطبيقات (API)، وتنفيذ المهام متعددة الخطوات. تمكّن هذه التقنية المطورين من بناء وكلاء ذكاء اصطناعي مستقلين يمكنهم التعامل مع كل شيء بدءًا من تطوير البرمجيات وتحليل البيانات إلى أتمتة الويب وتنظيم سير العمل في المؤسسات، كل ذلك مع الحفاظ على الشفافية والتخصيص وفعالية التكلفة من خلال إمكانية الوصول مفتوحة المصدر.
GLM-4.5-Air
GLM-4.5-Air هو نموذج تأسيسي مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي، مبني على بنية مزيج الخبراء (MoE). تم تحسينه بشكل مكثف لاستخدام الأدوات، وتصفح الويب، وتطوير البرمجيات، وتطوير الواجهات الأمامية، مما يتيح التكامل السلس مع وكلاء الترميز مثل Claude Code و Roo Code. يستخدم GLM-4.5 نهج استدلال هجين، مما يسمح له بالتكيف بفعالية مع مجموعة واسعة من سيناريوهات التطبيق—من مهام الاستدلال المعقدة إلى حالات الاستخدام اليومية.
GLM-4.5-Air: نموذج تأسيسي مصمم خصيصًا للوكلاء
GLM-4.5-Air هو نموذج تأسيسي مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي، مبني على بنية مزيج الخبراء (MoE) بإجمالي 106 مليار معلمة و 12 مليار معلمة نشطة. تم تحسينه بشكل مكثف لاستخدام الأدوات، وتصفح الويب، وتطوير البرمجيات، وتطوير الواجهات الأمامية، مما يتيح التكامل السلس مع وكلاء الترميز مثل Claude Code و Roo Code. يستخدم GLM-4.5 نهج استدلال هجين، مما يسمح له بالتكيف بفعالية مع مجموعة واسعة من سيناريوهات التطبيق—من مهام الاستدلال المعقدة إلى حالات الاستخدام اليومية. مع نافذة سياق تبلغ 131 ألف رمز وتسعير تنافسي على SiliconFlow يبلغ 0.86 دولار لكل مليون رمز إخراج و 0.14 دولار لكل مليون رمز إدخال، فإنه يقدم قيمة استثنائية لسير عمل الوكلاء.
المزايا
- مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي بكفاءة بنية MoE.
- محسّن بشكل مكثف لاستخدام الأدوات وتصفح الويب.
- تكامل سلس مع وكلاء الترميز مثل Claude Code.
العيوب
- عدد المعلمات النشطة أصغر من النماذج الرائدة.
- قد يتطلب ضبطًا دقيقًا للمجالات شديدة التخصص.
لماذا نُعجب به
- إنه النموذج الوحيد مفتوح المصدر المصمم صراحةً من الألف إلى الياء لسير عمل وكلاء الذكاء الاصطناعي، حيث يقدم استخدامًا محسنًا للأدوات، وتصفحًا للويب، وتكاملًا سلسًا مع وكلاء الترميز—كل ذلك بكفاءة وتكلفة استثنائيتين.
Qwen3-Coder-30B-A3B-Instruct
Qwen3-Coder-30B-A3B-Instruct هو نموذج ترميز من سلسلة Qwen3 تم تطويره بواسطة فريق Qwen من Alibaba. كنموذج مبسط ومحسن، فإنه يحافظ على أداء وكفاءة مذهلين مع التركيز على قدرات الترميز المحسنة. يظهر مزايا أداء كبيرة بين النماذج مفتوحة المصدر في المهام المعقدة مثل الترميز الوكيلي (Agentic Coding)، واستخدام المتصفح الوكيلي (Agentic Browser-Use)، ومهام الترميز الأساسية الأخرى.

Qwen3-Coder-30B-A3B-Instruct: قوة متخصصة في الترميز الوكيلي
Qwen3-Coder-30B-A3B-Instruct هو نموذج ترميز متخصص من سلسلة Qwen3 بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة. يظهر مزايا أداء كبيرة بين النماذج مفتوحة المصدر في المهام المعقدة مثل الترميز الوكيلي (Agentic Coding)، واستخدام المتصفح الوكيلي (Agentic Browser-Use)، ومهام الترميز الأساسية. يدعم النموذج أصلاً سياقًا طويلاً يبلغ 256 ألف رمز (262 ألف)، والذي يمكن تمديده حتى مليون رمز، مما يتيح فهمًا ومعالجة أفضل على مستوى المستودعات البرمجية. يوفر دعمًا قويًا للترميز الوكيلي لمنصات مثل Qwen Code و CLINE، ويتميز بتنسيق استدعاء دوال مصمم خصيصًا. مع تسعير SiliconFlow البالغ 0.4 دولار لكل مليون رمز إخراج و 0.1 دولار لكل مليون رمز إدخال، فإنه يقدم قيمة استثنائية لسير عمل الترميز الوكيلي.
المزايا
- أداء متطور في مهام الترميز الوكيلي.
- يتفوق في استخدام المتصفح الوكيلي وتكامل الأدوات.
- سياق أصلي يبلغ 256 ألف رمز، قابل للتمديد إلى مليون رمز.
العيوب
- متخصص في الترميز؛ أقل عمومية من النماذج الرائدة.
- يتطلب تكامل إطار عمل وكيلي للحصول على أفضل النتائج.
لماذا نُعجب به
- إنه المتخصص النهائي لسير عمل الترميز الوكيلي، حيث يقدم أداءً متطورًا في التوليد المستقل للتعليمات البرمجية، وفهم المستودعات، والترميز القائم على الأدوات—مع سياق ضخم وميزات وكيل مصممة خصيصًا.
Qwen3-30B-A3B-Thinking-2507
Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج تفكير في سلسلة Qwen3، أصدره فريق Qwen من Alibaba. كنموذج مزيج الخبراء (MoE) بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة، يركز على تعزيز القدرات للمهام المعقدة. يظهر النموذج أداءً محسنًا بشكل كبير في مهام الاستدلال ويتفوق في القدرات الوكيلية.

Qwen3-30B-A3B-Thinking-2507: استدلال متقدم للوكلاء المعقدين
Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج تفكير في سلسلة Qwen3 بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة. يظهر أداءً محسنًا بشكل كبير في مهام الاستدلال، بما في ذلك الاستدلال المنطقي، والرياضيات، والعلوم، والترميز، والمعايير الأكاديمية التي تتطلب عادةً خبرة بشرية. يظهر النموذج قدرات عامة أفضل بشكل ملحوظ، مثل اتباع التعليمات، واستخدام الأدوات، وتوليد النصوص، والتوافق مع التفضيلات البشرية. يدعم أصلاً قدرة فهم سياق طويل تبلغ 256 ألف رمز، والتي يمكن تمديدها إلى مليون رمز. تم تصميم هذا الإصدار خصيصًا لـ 'وضع التفكير' لمعالجة المشكلات شديدة التعقيد من خلال الاستدلال خطوة بخطوة ويتفوق في القدرات الوكيلية. يبلغ تسعير SiliconFlow 0.4 دولار لكل مليون رمز إخراج و 0.1 دولار لكل مليون رمز إدخال.
المزايا
- وضع 'تفكير' متخصص لمهام الاستدلال المعقدة.
- أداء متميز في الاستدلال الرياضي والمنطقي.
- قدرات وكيلية ممتازة مع استخدام الأدوات.
العيوب
- قد يؤدي وضع التفكير إلى أوقات استجابة أطول.
- يتطلب هندسة توجيه دقيقة لسلوك الوكيل الأمثل.
لماذا نُعجب به
- إنه يجمع بين الاستدلال المتقدم والقدرات الوكيلية، مما يمكّن وكلاء الذكاء الاصطناعي من معالجة المشكلات شديدة التعقيد ومتعددة الخطوات من خلال التفكير العميق خطوة بخطوة—كل ذلك مع الحفاظ على استخدام الأدوات، والسياق الضخم، والكفاءة الاستثنائية.
مقارنة نماذج اللغة الكبيرة القادرة على العمل كوكلاء
في هذا الجدول، نقارن نماذج اللغة الكبيرة مفتوحة المصدر الرائدة لعام 2025 لسير عمل الوكلاء، حيث يتمتع كل منها بنقطة قوة فريدة. للتطبيقات الوكيلية المصممة خصيصًا، يوفر GLM-4.5-Air استخدامًا محسنًا للأدوات وتصفحًا للويب. للترميز الوكيلي المتخصص، يقدم Qwen3-Coder-30B-A3B-Instruct أداءً متطورًا. لوكلاء الاستدلال المعقدين، يوفر Qwen3-30B-A3B-Thinking-2507 قدرات تفكير متقدمة. تساعدك هذه النظرة المقارنة على اختيار النموذج المناسب لاحتياجات سير عمل الوكيل الخاصة بك.
الرقم | النموذج | المطور | النوع الفرعي | تسعير SiliconFlow (الإخراج) | نقطة القوة الأساسية |
---|---|---|---|---|---|
1 | GLM-4.5-Air | zai | استدلال، MoE، 106B | 0.86 دولار/مليون رمز | أساس وكيل مصمم خصيصًا |
2 | Qwen3-Coder-30B-A3B-Instruct | Qwen | ترميز، MoE، 30B | 0.4 دولار/مليون رمز | ترميز وكيلي متطور |
3 | Qwen3-30B-A3B-Thinking-2507 | Qwen | استدلال، MoE، 30B | 0.4 دولار/مليون رمز | استدلال متقدم للوكلاء |
الأسئلة الشائعة
اختياراتنا الثلاثة الأولى لعام 2025 هي GLM-4.5-Air، و Qwen3-Coder-30B-A3B-Instruct، و Qwen3-30B-A3B-Thinking-2507. برز كل من هذه النماذج لقدراته كوكيل، بما في ذلك استخدام الأدوات، واستدعاء الدوال، والاستدلال، وتنفيذ المهام المستقل في تطبيقات وكيلية واقعية.
يُظهر تحليلنا المتعمق العديد من النماذج الرائدة لاحتياجات الوكلاء المختلفة. يعد GLM-4.5-Air الخيار الأفضل لتطبيقات الوكلاء ذات الأغراض العامة مع استخدام مكثف للأدوات وتحسين لتصفح الويب. أما Qwen3-Coder-30B-A3B-Instruct فهو الأفضل لسير عمل الترميز الوكيلي، حيث يتفوق في التوليد المستقل للتعليمات البرمجية وفهم المستودعات. ويعتبر Qwen3-30B-A3B-Thinking-2507 مثاليًا للوكلاء الذين يحتاجون إلى استدلال متقدم وحل المشكلات خطوة بخطوة. لتحقيق أقصى قدر من التوسع، تقدم نماذج مثل Qwen3-Coder-480B-A35B-Instruct أو moonshotai/Kimi-K2-Instruct قدرات وكيلية على مستوى المؤسسات.