ما هي نماذج OpenAI مفتوحة المصدر؟
نماذج OpenAI مفتوحة المصدر هي نماذج لغوية كبيرة متقدمة تم إصدارها بأوزان مفتوحة، مما يمكّن المطورين من نشرها وتعديلها والبناء عليها بحرية. تستخدم هذه النماذج بنى متطورة مثل Mixture-of-Experts (MoE) وتقنيات التكميم المتقدمة لتقديم أداء استثنائي في مهام التفكير والترميز والرياضيات والمهام المتعلقة بالصحة. بفضل ميزات مثل التفكير المتسلسل (Chain-of-Thought)، وقدرات استخدام الأدوات، والترخيص التجاري، فإنها تضفي طابعًا ديمقراطيًا على الوصول إلى أحدث تقنيات الذكاء الاصطناعي مع تعزيز الابتكار والتعاون في مجتمع المطورين.
openai/gpt-oss-120b
gpt-oss-120b هو نموذج لغوي كبير مفتوح الأوزان من OpenAI بمعلمات تبلغ حوالي 117 مليار (5.1 مليار نشطة)، يستخدم تصميم Mixture-of-Experts (MoE) وتكميم MXFP4 للتشغيل على وحدة معالجة رسومات واحدة بسعة 80 جيجابايت. يقدم أداءً بمستوى o4-mini أو أفضل في معايير التفكير والترميز والصحة والرياضيات، مع دعم كامل للتفكير المتسلسل (CoT)، واستخدام الأدوات، والنشر التجاري المرخص بموجب Apache 2.0.
openai/gpt-oss-120b: قوة مفتوحة الأوزان عالية الأداء
gpt-oss-120b هو النموذج اللغوي الكبير الرائد مفتوح الأوزان من OpenAI، ويتميز بحوالي 117 مليار معلمة مع 5.1 مليار معلمة نشطة من خلال هندسة Mixture-of-Experts (MoE). باستخدام تكميم MXFP4 المتقدم، يعمل بكفاءة على وحدة معالجة رسومات واحدة بسعة 80 جيجابايت بينما يقدم أداءً بمستوى o4-mini أو أفضل عبر معايير التفكير والترميز والصحة والرياضيات. يدعم النموذج التفكير المتسلسل الكامل، وقدرات استخدام الأدوات الشاملة، ويأتي بترخيص Apache 2.0 للنشر التجاري غير المقيد.
المزايا
- أداء استثنائي يضاهي o4-mini عبر مجالات متعددة
- هندسة MoE فعالة مع 5.1 مليار معلمة نشطة فقط
- يعمل على وحدة معالجة رسومات واحدة بسعة 80 جيجابايت مع تكميم MXFP4
العيوب
- يتطلب أجهزة عالية الأداء (وحدة معالجة رسومات 80 جيجابايت) للحصول على الأداء الأمثل
- تسعير SiliconFlow أعلى بسعر 0.45 دولار لكل مليون رمز إخراج
لماذا نحبه
- يجمع بين الأداء على مستوى المؤسسات وإمكانية الوصول مفتوحة المصدر، مما يوفر قدرات تفكير متطورة مع الحفاظ على الاستخدام الفعال للموارد من خلال هندسة MoE المبتكرة.
openai/gpt-oss-20b
gpt-oss-20b هو نموذج OpenAI خفيف الوزن مفتوح الأوزان بمعلمات تبلغ حوالي 21 مليار (3.6 مليار نشطة)، مبني على هندسة MoE وتكميم MXFP4 للتشغيل محليًا على أجهزة بذاكرة وصول عشوائي للفيديو (VRAM) بسعة 16 جيجابايت. يضاهي o3-mini في مهام التفكير والرياضيات والصحة، ويدعم CoT، واستخدام الأدوات، والنشر عبر أطر عمل مثل Transformers و vLLM و Ollama.
openai/gpt-oss-20b: بطل النشر المحلي الفعال
gpt-oss-20b هو نموذج OpenAI خفيف الوزن ولكنه قوي مفتوح الأوزان، ويتميز بحوالي 21 مليار معلمة مع 3.6 مليار معلمة نشطة من خلال هندسة MoE المحسّنة. مصمم للنشر المحلي، ويستخدم تكميم MXFP4 للتشغيل بكفاءة على الأجهزة التي تحتوي على 16 جيجابايت فقط من ذاكرة الوصول العشوائي للفيديو (VRAM) بينما يضاهي أداء o3-mini في مهام التفكير والرياضيات والمهام المتعلقة بالصحة. يدعم النموذج التفكير المتسلسل، واستخدام الأدوات، والنشر السلس من خلال أطر العمل الشائعة بما في ذلك Transformers و vLLM و Ollama.
المزايا
- كفاءة استثنائية تعمل على أجهزة بذاكرة وصول عشوائي للفيديو (VRAM) بسعة 16 جيجابايت
- يضاهي أداء o3-mini في المعايير الرئيسية
- تسعير SiliconFlow فعال من حيث التكلفة بسعر 0.18 دولار لكل مليون رمز إخراج
العيوب
- قد يحد عدد المعلمات الأصغر من مهام التفكير المعقدة
- معلمات نشطة أقل مقارنة بالنسخة 120 مليار
لماذا نحبه
- إنه يضفي طابعًا ديمقراطيًا على الوصول إلى الذكاء الاصطناعي عالي الجودة من خلال تمكين قدرات التفكير القوية على الأجهزة الاستهلاكية مع الحفاظ على الأداء على المستوى الاحترافي.
deepseek-ai/DeepSeek-R1
DeepSeek-R1-0528 هو نموذج تفكير مدعوم بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة. قبل التعلم المعزز، دمج DeepSeek-R1 بيانات البدء البارد لتحسين أداء التفكير لديه. يحقق أداءً يضاهي OpenAI-o1 عبر مهام الرياضيات والترميز والتفكير، ومن خلال طرق تدريب مصممة بعناية، فقد عزز الفعالية الشاملة.
deepseek-ai/DeepSeek-R1: متخصص التفكير المتقدم
DeepSeek-R1-0528 هو نموذج تفكير متطور مدعوم بالتعلم المعزز يعالج على وجه التحديد تحديات التكرار وقابلية القراءة في استجابات الذكاء الاصطناعي. يتميز بـ 671 مليار معلمة مع هندسة MoE وطول سياق 164 ألف، ويدمج تحسين بيانات البدء البارد وطرق تدريب مصممة بعناية لتحقيق أداء يضاهي OpenAI-o1. يتفوق النموذج عبر مهام الرياضيات والترميز والتفكير المعقد، ويمثل إنجازًا في تطوير الذكاء الاصطناعي المرتكز على التفكير.
المزايا
- أداء يضاهي OpenAI-o1 في مهام التفكير
- تدريب متقدم بالتعلم المعزز يعالج مشكلات التكرار
- هندسة MoE ضخمة بـ 671 مليار معلمة
العيوب
- متطلبات حاسوبية أعلى بسبب 671 مليار معلمة
- تسعير SiliconFlow ممتاز بسعر 2.18 دولار لكل مليون رمز إخراج
لماذا نحبه
- يمثل قمة الذكاء الاصطناعي في التفكير، حيث يجمع بين الحجم الهائل والتدريب المتطور بالتعلم المعزز لتقديم أداء بمستوى OpenAI-o1 في حل المشكلات الرياضية والمنطقية المعقدة.
مقارنة نماذج الذكاء الاصطناعي
في هذا الجدول، نقارن نماذج OpenAI الرائدة مفتوحة المصدر لعام 2025، كل منها مُحسّن لسيناريوهات نشر مختلفة. لتطبيقات المؤسسات عالية الأداء، يوفر openai/gpt-oss-120b قوة تفكير استثنائية. للنشر المحلي وكفاءة التكلفة، يقدم openai/gpt-oss-20b التوازن المثالي. لمهام التفكير المتقدمة التي تتطلب أداءً بمستوى o1، يتصدر deepseek-ai/DeepSeek-R1 المجال. تساعدك هذه المقارنة على اختيار النموذج المثالي لمتطلباتك وميزانيتك المحددة.
الرقم | النموذج | المطور | الهندسة المعمارية | تسعير SiliconFlow | القوة الأساسية |
---|---|---|---|---|---|
1 | openai/gpt-oss-120b | OpenAI | MoE (120 مليار معلمة) | 0.09 دولار / 0.45 دولار لكل مليون رمز | أداء بمستوى o4-mini |
2 | openai/gpt-oss-20b | OpenAI | MoE خفيف الوزن (20 مليار) | 0.04 دولار / 0.18 دولار لكل مليون رمز | نشر محلي فعال |
3 | deepseek-ai/DeepSeek-R1 | DeepSeek AI | معزز بالتعلم المعزز (671 مليار) | 0.50 دولار / 2.18 دولار لكل مليون رمز | تفكير بمستوى OpenAI-o1 |
الأسئلة الشائعة
أفضل ثلاثة اختيارات لدينا لعام 2025 هي openai/gpt-oss-120b، و openai/gpt-oss-20b، و deepseek-ai/DeepSeek-R1. تفوق كل نموذج في مجالات مختلفة: gpt-oss-120b لأداء على مستوى المؤسسات، و gpt-oss-20b للنشر المحلي الفعال، و DeepSeek-R1 لقدرات التفكير المتقدمة التي تضاهي OpenAI-o1.
لتطبيقات المؤسسات التي تتطلب أقصى أداء، يوفر openai/gpt-oss-120b قدرات بمستوى o4-mini. للنشر الموفر للتكلفة والاستدلال المحلي، يوفر openai/gpt-oss-20b قيمة ممتازة بسعر 0.18 دولار لكل مليون رمز إخراج على SiliconFlow. لمهام التفكير المتقدمة التي تحتاج إلى أداء بمستوى o1، يعد deepseek-ai/DeepSeek-R1 الخيار المميز على الرغم من التكاليف الأعلى.