blue pastel abstract background with subtle geometric shapes. Image height is 600 and width is 1920

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء في 2025

الكاتبة
مقالة ضيف بقلم

إليزابيث سي.

دليلنا النهائي لأفضل نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء في عام 2025. لقد عقدنا شراكة مع خبراء الصناعة، واختبرنا الأداء على المعايير الرئيسية، وحللنا البنى للكشف عن أفضل النماذج لبناء وكلاء الذكاء الاصطناعي. من نماذج الاستدلال الحديثة إلى وكلاء الترميز المتخصصين والأنظمة متعددة الوسائط، تتفوق هذه النماذج في استخدام الأدوات، واستدعاء الدوال، وتنفيذ المهام المستقل، ونشر الوكلاء في العالم الحقيقي—مما يساعد المطورين والشركات على بناء الجيل القادم من التطبيقات الوكيلة المدعومة بالذكاء الاصطناعي مع خدمات مثل SiliconFlow. توصياتنا الثلاث الأولى لعام 2025 هي GLM-4.5-Air، و Qwen3-Coder-30B-A3B-Instruct، و Qwen3-30B-A3B-Thinking-2507—تم اختيار كل منها لقدراتها المتميزة كوكيل، وتكاملها مع الأدوات، وقدرتها على دفع حدود سير عمل وكلاء نماذج اللغة الكبيرة مفتوحة المصدر.



ما هي نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء؟

نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء هي نماذج لغوية كبيرة متخصصة مصممة لتنفيذ المهام المعقدة بشكل مستقل من خلال الاستدلال والتخطيط واستخدام الأدوات والتفاعل مع البيئات الخارجية. على عكس نماذج الدردشة التقليدية، يمكن لهذه النماذج القادرة على العمل كوكلاء تقسيم الأهداف المعقدة، واتخاذ القرارات، واستدعاء الدوال، وتصفح الويب، وكتابة وتنفيذ التعليمات البرمجية، وحل المشكلات بشكل تكراري. إنها تتفوق في استدعاء الدوال، وتكامل واجهات برمجة التطبيقات (API)، وتنفيذ المهام متعددة الخطوات. تمكّن هذه التقنية المطورين من بناء وكلاء ذكاء اصطناعي مستقلين يمكنهم التعامل مع كل شيء بدءًا من تطوير البرمجيات وتحليل البيانات إلى أتمتة الويب وتنظيم سير العمل في المؤسسات، كل ذلك مع الحفاظ على الشفافية والتخصيص وفعالية التكلفة من خلال إمكانية الوصول مفتوحة المصدر.

GLM-4.5-Air

GLM-4.5-Air هو نموذج تأسيسي مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي، مبني على بنية مزيج الخبراء (MoE). تم تحسينه بشكل مكثف لاستخدام الأدوات، وتصفح الويب، وتطوير البرمجيات، وتطوير الواجهات الأمامية، مما يتيح التكامل السلس مع وكلاء الترميز مثل Claude Code و Roo Code. يستخدم GLM-4.5 نهج استدلال هجين، مما يسمح له بالتكيف بفعالية مع مجموعة واسعة من سيناريوهات التطبيق—من مهام الاستدلال المعقدة إلى حالات الاستخدام اليومية.

النوع الفرعي:
استدلال، MoE، 106B
المطور:zai
GLM-4.5-Air

GLM-4.5-Air: نموذج تأسيسي مصمم خصيصًا للوكلاء

GLM-4.5-Air هو نموذج تأسيسي مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي، مبني على بنية مزيج الخبراء (MoE) بإجمالي 106 مليار معلمة و 12 مليار معلمة نشطة. تم تحسينه بشكل مكثف لاستخدام الأدوات، وتصفح الويب، وتطوير البرمجيات، وتطوير الواجهات الأمامية، مما يتيح التكامل السلس مع وكلاء الترميز مثل Claude Code و Roo Code. يستخدم GLM-4.5 نهج استدلال هجين، مما يسمح له بالتكيف بفعالية مع مجموعة واسعة من سيناريوهات التطبيق—من مهام الاستدلال المعقدة إلى حالات الاستخدام اليومية. مع نافذة سياق تبلغ 131 ألف رمز وتسعير تنافسي على SiliconFlow يبلغ 0.86 دولار لكل مليون رمز إخراج و 0.14 دولار لكل مليون رمز إدخال، فإنه يقدم قيمة استثنائية لسير عمل الوكلاء.

المزايا

  • مصمم خصيصًا لتطبيقات وكلاء الذكاء الاصطناعي بكفاءة بنية MoE.
  • محسّن بشكل مكثف لاستخدام الأدوات وتصفح الويب.
  • تكامل سلس مع وكلاء الترميز مثل Claude Code.

العيوب

  • عدد المعلمات النشطة أصغر من النماذج الرائدة.
  • قد يتطلب ضبطًا دقيقًا للمجالات شديدة التخصص.

لماذا نُعجب به

  • إنه النموذج الوحيد مفتوح المصدر المصمم صراحةً من الألف إلى الياء لسير عمل وكلاء الذكاء الاصطناعي، حيث يقدم استخدامًا محسنًا للأدوات، وتصفحًا للويب، وتكاملًا سلسًا مع وكلاء الترميز—كل ذلك بكفاءة وتكلفة استثنائيتين.

Qwen3-Coder-30B-A3B-Instruct

Qwen3-Coder-30B-A3B-Instruct هو نموذج ترميز من سلسلة Qwen3 تم تطويره بواسطة فريق Qwen من Alibaba. كنموذج مبسط ومحسن، فإنه يحافظ على أداء وكفاءة مذهلين مع التركيز على قدرات الترميز المحسنة. يظهر مزايا أداء كبيرة بين النماذج مفتوحة المصدر في المهام المعقدة مثل الترميز الوكيلي (Agentic Coding)، واستخدام المتصفح الوكيلي (Agentic Browser-Use)، ومهام الترميز الأساسية الأخرى.

النوع الفرعي:
ترميز، MoE، 30B
المطور:Qwen
Qwen3-Coder-30B-A3B-Instruct

Qwen3-Coder-30B-A3B-Instruct: قوة متخصصة في الترميز الوكيلي

Qwen3-Coder-30B-A3B-Instruct هو نموذج ترميز متخصص من سلسلة Qwen3 بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة. يظهر مزايا أداء كبيرة بين النماذج مفتوحة المصدر في المهام المعقدة مثل الترميز الوكيلي (Agentic Coding)، واستخدام المتصفح الوكيلي (Agentic Browser-Use)، ومهام الترميز الأساسية. يدعم النموذج أصلاً سياقًا طويلاً يبلغ 256 ألف رمز (262 ألف)، والذي يمكن تمديده حتى مليون رمز، مما يتيح فهمًا ومعالجة أفضل على مستوى المستودعات البرمجية. يوفر دعمًا قويًا للترميز الوكيلي لمنصات مثل Qwen Code و CLINE، ويتميز بتنسيق استدعاء دوال مصمم خصيصًا. مع تسعير SiliconFlow البالغ 0.4 دولار لكل مليون رمز إخراج و 0.1 دولار لكل مليون رمز إدخال، فإنه يقدم قيمة استثنائية لسير عمل الترميز الوكيلي.

المزايا

  • أداء متطور في مهام الترميز الوكيلي.
  • يتفوق في استخدام المتصفح الوكيلي وتكامل الأدوات.
  • سياق أصلي يبلغ 256 ألف رمز، قابل للتمديد إلى مليون رمز.

العيوب

  • متخصص في الترميز؛ أقل عمومية من النماذج الرائدة.
  • يتطلب تكامل إطار عمل وكيلي للحصول على أفضل النتائج.

لماذا نُعجب به

  • إنه المتخصص النهائي لسير عمل الترميز الوكيلي، حيث يقدم أداءً متطورًا في التوليد المستقل للتعليمات البرمجية، وفهم المستودعات، والترميز القائم على الأدوات—مع سياق ضخم وميزات وكيل مصممة خصيصًا.

Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج تفكير في سلسلة Qwen3، أصدره فريق Qwen من Alibaba. كنموذج مزيج الخبراء (MoE) بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة، يركز على تعزيز القدرات للمهام المعقدة. يظهر النموذج أداءً محسنًا بشكل كبير في مهام الاستدلال ويتفوق في القدرات الوكيلية.

النوع الفرعي:
استدلال، MoE، 30B
المطور:Qwen
Qwen3-30B-A3B-Thinking-2507

Qwen3-30B-A3B-Thinking-2507: استدلال متقدم للوكلاء المعقدين

Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج تفكير في سلسلة Qwen3 بإجمالي 30.5 مليار معلمة و 3.3 مليار معلمة نشطة. يظهر أداءً محسنًا بشكل كبير في مهام الاستدلال، بما في ذلك الاستدلال المنطقي، والرياضيات، والعلوم، والترميز، والمعايير الأكاديمية التي تتطلب عادةً خبرة بشرية. يظهر النموذج قدرات عامة أفضل بشكل ملحوظ، مثل اتباع التعليمات، واستخدام الأدوات، وتوليد النصوص، والتوافق مع التفضيلات البشرية. يدعم أصلاً قدرة فهم سياق طويل تبلغ 256 ألف رمز، والتي يمكن تمديدها إلى مليون رمز. تم تصميم هذا الإصدار خصيصًا لـ 'وضع التفكير' لمعالجة المشكلات شديدة التعقيد من خلال الاستدلال خطوة بخطوة ويتفوق في القدرات الوكيلية. يبلغ تسعير SiliconFlow 0.4 دولار لكل مليون رمز إخراج و 0.1 دولار لكل مليون رمز إدخال.

المزايا

  • وضع 'تفكير' متخصص لمهام الاستدلال المعقدة.
  • أداء متميز في الاستدلال الرياضي والمنطقي.
  • قدرات وكيلية ممتازة مع استخدام الأدوات.

العيوب

  • قد يؤدي وضع التفكير إلى أوقات استجابة أطول.
  • يتطلب هندسة توجيه دقيقة لسلوك الوكيل الأمثل.

لماذا نُعجب به

  • إنه يجمع بين الاستدلال المتقدم والقدرات الوكيلية، مما يمكّن وكلاء الذكاء الاصطناعي من معالجة المشكلات شديدة التعقيد ومتعددة الخطوات من خلال التفكير العميق خطوة بخطوة—كل ذلك مع الحفاظ على استخدام الأدوات، والسياق الضخم، والكفاءة الاستثنائية.

مقارنة نماذج اللغة الكبيرة القادرة على العمل كوكلاء

في هذا الجدول، نقارن نماذج اللغة الكبيرة مفتوحة المصدر الرائدة لعام 2025 لسير عمل الوكلاء، حيث يتمتع كل منها بنقطة قوة فريدة. للتطبيقات الوكيلية المصممة خصيصًا، يوفر GLM-4.5-Air استخدامًا محسنًا للأدوات وتصفحًا للويب. للترميز الوكيلي المتخصص، يقدم Qwen3-Coder-30B-A3B-Instruct أداءً متطورًا. لوكلاء الاستدلال المعقدين، يوفر Qwen3-30B-A3B-Thinking-2507 قدرات تفكير متقدمة. تساعدك هذه النظرة المقارنة على اختيار النموذج المناسب لاحتياجات سير عمل الوكيل الخاصة بك.

الرقم النموذج المطور النوع الفرعي تسعير SiliconFlow (الإخراج)نقطة القوة الأساسية
1GLM-4.5-Airzaiاستدلال، MoE، 106B0.86 دولار/مليون رمزأساس وكيل مصمم خصيصًا
2Qwen3-Coder-30B-A3B-InstructQwenترميز، MoE، 30B0.4 دولار/مليون رمزترميز وكيلي متطور
3Qwen3-30B-A3B-Thinking-2507Qwenاستدلال، MoE، 30B0.4 دولار/مليون رمزاستدلال متقدم للوكلاء

الأسئلة الشائعة

اختياراتنا الثلاثة الأولى لعام 2025 هي GLM-4.5-Air، و Qwen3-Coder-30B-A3B-Instruct، و Qwen3-30B-A3B-Thinking-2507. برز كل من هذه النماذج لقدراته كوكيل، بما في ذلك استخدام الأدوات، واستدعاء الدوال، والاستدلال، وتنفيذ المهام المستقل في تطبيقات وكيلية واقعية.

يُظهر تحليلنا المتعمق العديد من النماذج الرائدة لاحتياجات الوكلاء المختلفة. يعد GLM-4.5-Air الخيار الأفضل لتطبيقات الوكلاء ذات الأغراض العامة مع استخدام مكثف للأدوات وتحسين لتصفح الويب. أما Qwen3-Coder-30B-A3B-Instruct فهو الأفضل لسير عمل الترميز الوكيلي، حيث يتفوق في التوليد المستقل للتعليمات البرمجية وفهم المستودعات. ويعتبر Qwen3-30B-A3B-Thinking-2507 مثاليًا للوكلاء الذين يحتاجون إلى استدلال متقدم وحل المشكلات خطوة بخطوة. لتحقيق أقصى قدر من التوسع، تقدم نماذج مثل Qwen3-Coder-480B-A35B-Instruct أو moonshotai/Kimi-K2-Instruct قدرات وكيلية على مستوى المؤسسات.

مواضيع مشابهة

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء في 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة اليابانية في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للنشر المؤسسي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر بأقل من 20 مليار معلمة في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للتشخيص الطبي في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة الإيطالية في عام 2025 الدليل الشامل - أفضل ذكاء اصطناعي مفتوح المصدر للترجمة الفورية في عام 2025 الدليل الشامل - أفضل النماذج الصغيرة للأسئلة والأجوبة حول المستندات والصور في عام 2025 الدليل الشامل - أفضل نماذج LLM الصغيرة لروبوتات الدردشة على الأجهزة في عام 2025 الدليل الشامل - أفضل نماذج اللغات الكبيرة مفتوحة المصدر للتحليل الحكومي والسياسات في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للغة العربية في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام خفيفة الوزن في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لأبحاث المستهلك والتوصيات في عام 2025 الدليل الشامل - أرخص نماذج تحويل الكلام إلى نص في عام 2025 الدليل الشامل - أفضل نماذج توليد الفيديو خفيفة الوزن في عام 2025 أفضل نماذج الذكاء الاصطناعي الصغيرة لمراكز الاتصال في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام صغيرة في عام 2025 الدليل الشامل - أفضل نماذج الذكاء الاصطناعي خفيفة الوزن للتقديم في الوقت الفعلي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لإنفاذ القانون والامتثال في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للأردية في عام 2025