blue pastel abstract background with subtle geometric shapes. Image height is 600 and width is 1920

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية في عام 2025

المؤلف
مدونة ضيف بقلم

إليزابيث سي.

دليلنا الشامل لأفضل نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية في عام 2025. لقد عقدنا شراكة مع خبراء الصناعة، واختبرنا الأداء على المعايير الرئيسية، وحللنا البنى للكشف عن أفضل النماذج للتطوير السريع والتجريب. من النماذج خفيفة الوزن المثالية للتكرارات السريعة إلى بنى MoE القوية التي توازن بين الكفاءة والقدرة، تتفوق هذه النماذج في سهولة الوصول، ومرونة النشر، وتطبيقات النماذج الأولية في العالم الحقيقي - مما يساعد المطورين والشركات على بناء واختبار الحلول المدعومة بالذكاء الاصطناعي بسرعة باستخدام خدمات مثل SiliconFlow. توصياتنا الثلاثة الأولى لعام 2025 هي openai/gpt-oss-20b، وTHUDM/GLM-4-9B-0414، وQwen/Qwen3-8B - تم اختيار كل منها لأدائها المتميز، وفعاليتها من حيث التكلفة، وقدرتها على تسريع عملية النماذج الأولية.



ما هي نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية؟

نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية هي نماذج لغوية خفيفة الوزن إلى متوسطة الحجم مُحسّنة خصيصًا للتطوير السريع والاختبار والتكرار. توفر هذه النماذج توازنًا مثاليًا بين الأداء وكفاءة الموارد، مما يمكّن المطورين من التحقق بسرعة من الأفكار، وبناء إثباتات المفهوم، واختبار تطبيقات الذكاء الاصطناعي دون الحاجة إلى بنية تحتية حاسوبية واسعة النطاق. تتميز بخيارات نشر سهلة الوصول، وتكاليف استدلال معقولة، وقدرات أساسية قوية عبر المهام الشائعة مثل توليد التعليمات البرمجية، والاستدلال، وفهم اللغة الطبيعية. من خلال إضفاء الطابع الديمقراطي على الوصول إلى قدرات الذكاء الاصطناعي القوية، تعمل هذه النماذج على تسريع دورات الابتكار وتسمح للفرق بتجربة تكامل الذكاء الاصطناعي قبل الالتزام بعمليات نشر على نطاق الإنتاج.

openai/gpt-oss-20b

gpt-oss-20b هو نموذج OpenAI مفتوح الوزن وخفيف الوزن يضم حوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية MoE وتكميم MXFP4 للتشغيل محليًا على أجهزة VRAM بسعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم CoT واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers وvLLM وOllama.

النوع الفرعي:
نموذج دردشة MoE
المطور:OpenAI
openai/gpt-oss-20b

openai/gpt-oss-20b: قوة خفيفة الوزن للنماذج الأولية السريعة

gpt-oss-20b هو نموذج OpenAI مفتوح الوزن وخفيف الوزن يضم حوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية MoE وتكميم MXFP4 للتشغيل محليًا على أجهزة VRAM بسعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم CoT واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers وvLLM وOllama. بفضل بصمته المواردية الفعالة للغاية وأدائه التنافسي، يعد هذا النموذج مثاليًا للمطورين الذين يحتاجون إلى عمل نماذج أولية بسرعة على أجهزة المستهلك مع الحفاظ على قدرات بجودة الإنتاج. نافذة السياق البالغة 131 ألفًا وتسعير SiliconFlow المنخفض (0.04 دولار/مليون رمز إدخال، 0.18 دولار/مليون رمز إخراج) تجعله مثاليًا لدورات التطوير التكرارية.

المزايا

  • يعمل محليًا على الأجهزة التي تحتوي على 16 جيجابايت فقط من VRAM.
  • بنية MoE مع 3.6 مليار معلمة نشطة فقط لتحقيق الكفاءة.
  • يضاهي أداء o3-mini في مهام الاستدلال والرياضيات.

العيوب

  • عدد معلمات إجمالي أصغر مقارنة بالنماذج الرائدة.
  • قد يتطلب تحسينًا للمجالات المتخصصة للغاية.

لماذا نحبه

  • إنه نموذج النماذج الأولية المثالي - خفيف الوزن بما يكفي للتشغيل على الأجهزة المحلية ولكنه قوي بما يكفي للتحقق من تطبيقات الذكاء الاصطناعي الحقيقية، بجودة OpenAI وبسعر لا يهزم على SiliconFlow.

THUDM/GLM-4-9B-0414

GLM-4-9B-0414 هو نموذج صغير الحجم في سلسلة GLM يضم 9 مليارات معلمة. على الرغم من صغر حجمه، يظهر هذا النموذج قدرات ممتازة في توليد التعليمات البرمجية، وتصميم الويب، وتوليد رسومات SVG، ومهام الكتابة القائمة على البحث. يدعم ميزات استدعاء الوظائف ويظهر توازنًا جيدًا بين الكفاءة والفعالية في السيناريوهات محدودة الموارد.

النوع الفرعي:
نموذج دردشة
المطور:THUDM
THUDM/GLM-4-9B-0414

THUDM/GLM-4-9B-0414: أداء متوازن لتميز النماذج الأولية

GLM-4-9B-0414 هو نموذج صغير الحجم في سلسلة GLM يضم 9 مليارات معلمة. يرث هذا النموذج الخصائص التقنية لسلسلة GLM-4-32B ولكنه يوفر خيار نشر أخف وزنًا. على الرغم من صغر حجمه، لا يزال GLM-4-9B-0414 يظهر قدرات ممتازة في توليد التعليمات البرمجية، وتصميم الويب، وتوليد رسومات SVG، ومهام الكتابة القائمة على البحث. يدعم النموذج أيضًا ميزات استدعاء الوظائف، مما يسمح له باستدعاء أدوات خارجية لتوسيع نطاق قدراته. مع تسعير SiliconFlow التنافسي بسعر 0.086 دولار/مليون رمز لكل من الإدخال والإخراج، فإنه يوفر توازنًا مثاليًا لسيناريوهات النماذج الأولية التي تتطلب الجودة دون تجاوز الميزانية. نافذة السياق البالغة 33 ألفًا تتعامل مع معظم سير عمل النماذج الأولية بكفاءة.

المزايا

  • قدرات ممتازة في توليد التعليمات البرمجية وتصميم الويب.
  • دعم استدعاء الوظائف لتكامل الأدوات.
  • تسعير متوازن على SiliconFlow بسعر 0.086 دولار/مليون رمز.

العيوب

  • نافذة سياق أصغر مقارنة ببعض البدائل.
  • قد يحتاج إلى استكمال لمهام الاستدلال المعقدة للغاية.

لماذا نحبه

  • إنه يقدم قدرات توليد التعليمات البرمجية والإبداع على مستوى الرائد في حزمة 9 مليارات معلمة، مما يجعله الخيار الأمثل للنماذج الأولية التي تراعي الموارد دون التضحية بالجودة.

Qwen/Qwen3-8B

Qwen3-8B هو أحدث نموذج لغوي كبير في سلسلة Qwen يضم 8.2 مليار معلمة. يدعم هذا النموذج بشكل فريد التبديل السلس بين وضع التفكير (للاستدلال المنطقي المعقد، والرياضيات، والترميز) ووضع عدم التفكير (للحوار العام الفعال)، مع قدرات استدلال محسّنة ودعم متعدد اللغات لأكثر من 100 لغة.

النوع الفرعي:
نموذج دردشة استدلالي
المطور:Qwen
Qwen/Qwen3-8B

Qwen/Qwen3-8B: ذكاء ثنائي الوضع للنماذج الأولية المتنوعة

Qwen3-8B هو أحدث نموذج لغوي كبير في سلسلة Qwen يضم 8.2 مليار معلمة. يدعم هذا النموذج بشكل فريد التبديل السلس بين وضع التفكير (للاستدلال المنطقي المعقد، والرياضيات، والترميز) ووضع عدم التفكير (للحوار العام الفعال). يظهر قدرات استدلال محسّنة بشكل كبير، متجاوزًا نماذج QwQ وQwen2.5 السابقة في الرياضيات، وتوليد التعليمات البرمجية، والاستدلال المنطقي العام. يتفوق النموذج في محاذاة التفضيلات البشرية للكتابة الإبداعية، ولعب الأدوار، والحوارات متعددة الأدوار. مع دعم لأكثر من 100 لغة ولهجة، ونافذة سياق ضخمة تبلغ 131 ألفًا، وتسعير SiliconFlow التنافسي بسعر 0.06 دولار/مليون رمز، يعد Qwen3-8B مثاليًا لعمل نماذج أولية لتطبيقات الذكاء الاصطناعي المتنوعة عبر مختلف المجالات واللغات.

المزايا

  • تشغيل ثنائي الوضع: وضع التفكير للمهام المعقدة، ووضع عدم التفكير للكفاءة.
  • استدلال محسّن يتجاوز الأجيال السابقة.
  • نافذة سياق ضخمة تبلغ 131 ألفًا لسيناريوهات النماذج الأولية الشاملة.

العيوب

  • قد يزيد وضع التفكير من وقت الاستدلال للمهام البسيطة.
  • يتطلب اختيار الوضع المناسب لتحقيق الكفاءة المثلى.

لماذا نحبه

  • التبديل المرن بين وضع التفكير/عدم التفكير يجعله متعدد الاستخدامات بشكل لا يصدق للنماذج الأولية - يمكنك التبديل بين الاستدلال العميق للمشكلات المعقدة والاستجابات السريعة للتفاعلات البسيطة، كل ذلك في نموذج واحد.

مقارنة أفضل نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية

في هذا الجدول، نقارن نماذج اللغة الكبيرة مفتوحة المصدر الرائدة لعام 2025 للنماذج الأولية، كل منها مُحسّن للتطوير والاختبار السريع. للنشر المحلي فائق الخفة، يقدم openai/gpt-oss-20b كفاءة استثنائية. لتوليد التعليمات البرمجية المتوازن والمهام الإبداعية، يتفوق THUDM/GLM-4-9B-0414 بدعم استدعاء الوظائف. للاستدلال متعدد الاستخدامات ثنائي الوضع عبر أكثر من 100 لغة، يوفر Qwen/Qwen3-8B مرونة لا مثيل لها. تساعدك هذه المقارنة جنبًا إلى جنب على اختيار أداة النماذج الأولية المناسبة لاحتياجاتك وقيودك التنموية المحددة. جميع الأسعار المعروضة هي من SiliconFlow.

الرقم النموذج المطور النوع الفرعي تسعير SiliconFlowالقوة الأساسية
1openai/gpt-oss-20bOpenAIنموذج دردشة MoE0.04 دولار/مليون إدخال، 0.18 دولار/مليون إخراجيعمل على 16 جيجابايت VRAM محليًا
2THUDM/GLM-4-9B-0414THUDMنموذج دردشة0.086 دولار/مليون رمزتوليد ممتاز للتعليمات البرمجية والإبداع
3Qwen/Qwen3-8BQwenنموذج دردشة استدلالي0.06 دولار/مليون رمزثنائي الوضع مع سياق 131 ألفًا

الأسئلة الشائعة

اختياراتنا الثلاثة الأولى لأفضل نماذج اللغة الكبيرة مفتوحة المصدر للنماذج الأولية في عام 2025 هي openai/gpt-oss-20b، وTHUDM/GLM-4-9B-0414، وQwen/Qwen3-8B. تميز كل من هذه النماذج بكفاءته، وفعاليته من حيث التكلفة، ومرونة النشر، وقدراته الأساسية القوية التي تسرع دورة النماذج الأولية والتطوير.

للتطوير المحلي على أجهزة المستهلك، يعد openai/gpt-oss-20b مثاليًا بمتطلباته البالغة 16 جيجابايت VRAM وكفاءة MoE. للنماذج الأولية كثيفة التعليمات البرمجية مع تكامل الأدوات، يتفوق THUDM/GLM-4-9B-0414 بدعم استدعاء الوظائف وقدرات تصميم الويب. للتطبيقات متعددة اللغات أو المشاريع التي تتطلب أوضاع استدلال مرنة، يوفر Qwen/Qwen3-8B ذكاءً ثنائي الوضع عبر أكثر من 100 لغة مع نافذة سياق 131 ألفًا.

مواضيع مشابهة

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء في 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة اليابانية في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للنشر المؤسسي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر بأقل من 20 مليار معلمة في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للتشخيص الطبي في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة الإيطالية في عام 2025 الدليل الشامل - أفضل ذكاء اصطناعي مفتوح المصدر للترجمة الفورية في عام 2025 الدليل الشامل - أفضل النماذج الصغيرة للأسئلة والأجوبة حول المستندات والصور في عام 2025 الدليل الشامل - أفضل نماذج LLM الصغيرة لروبوتات الدردشة على الأجهزة في عام 2025 الدليل الشامل - أفضل نماذج اللغات الكبيرة مفتوحة المصدر للتحليل الحكومي والسياسات في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للغة العربية في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام خفيفة الوزن في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لأبحاث المستهلك والتوصيات في عام 2025 الدليل الشامل - أرخص نماذج تحويل الكلام إلى نص في عام 2025 الدليل الشامل - أفضل نماذج توليد الفيديو خفيفة الوزن في عام 2025 أفضل نماذج الذكاء الاصطناعي الصغيرة لمراكز الاتصال في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام صغيرة في عام 2025 الدليل الشامل - أفضل نماذج الذكاء الاصطناعي خفيفة الوزن للتقديم في الوقت الفعلي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لإنفاذ القانون والامتثال في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للأردية في عام 2025