blue pastel abstract background with subtle geometric shapes. Image height is 600 and width is 1920

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لإنترنت الأشياء الذكي في عام 2025

المؤلف
مدونة ضيف بقلم

إليزابيث سي.

دليلنا الشامل لأفضل نماذج اللغة الكبيرة مفتوحة المصدر لتطبيقات إنترنت الأشياء الذكي في عام 2025. لقد عقدنا شراكة مع خبراء الصناعة، واختبرنا الأداء على معايير إنترنت الأشياء الرئيسية، وحللنا البنى للكشف عن النماذج الأكثر كفاءة وقوة لأجهزة الحافة، وشبكات الاستشعار، والأتمتة الذكية. من النماذج خفيفة الوزن المحسّنة للبيئات محدودة الموارد إلى محركات الاستدلال القوية لاتخاذ قرارات إنترنت الأشياء المعقدة، تتفوق هذه النماذج في الكفاءة والمعالجة في الوقت الفعلي والنشر العملي - مما يساعد المطورين والشركات على بناء الجيل التالي من حلول إنترنت الأشياء المدعومة بالذكاء الاصطناعي مع خدمات مثل SiliconFlow. توصياتنا الثلاثة الأولى لعام 2025 هي openai/gpt-oss-20b، و meta-llama/Meta-Llama-3.1-8B-Instruct، و THUDM/GLM-4-9B-0414 - تم اختيار كل منها لكفاءتها المتميزة وحجمها الصغير وقدرتها على تقديم أداء استثنائي في بيئات إنترنت الأشياء الذكية.



ما هي نماذج اللغة الكبيرة مفتوحة المصدر لإنترنت الأشياء الذكي؟

نماذج اللغة الكبيرة مفتوحة المصدر لإنترنت الأشياء الذكي هي أنظمة ذكاء اصطناعي متخصصة مصممة للعمل بكفاءة على أجهزة الحافة والأنظمة المدمجة والأجهزة محدودة الموارد. تمكّن هذه النماذج الأتمتة الذكية، وواجهات اللغة الطبيعية، والصيانة التنبؤية، واتخاذ القرارات في الوقت الفعلي مباشرة على أجهزة إنترنت الأشياء. تم تحسينها لتقليل زمن الاستجابة، والحد الأدنى من استهلاك الذاكرة، وكفاءة الطاقة، وهي تمكّن المطورين من نشر قدرات الذكاء الاصطناعي المتطورة عبر المنازل الذكية، وأجهزة الاستشعار الصناعية، والأجهزة القابلة للارتداء، والأجهزة المتصلة دون الاعتماد على الاتصال السحابي المستمر. إنها تعزز الابتكار في الحوسبة الطرفية، وتضفي طابعًا ديمقراطيًا على الوصول إلى الذكاء الاصطناعي القوي لتطبيقات إنترنت الأشياء، وتمكّن مجموعة واسعة من حالات الاستخدام من الأجهزة التي يتم التحكم فيها بالصوت إلى أنظمة التصنيع المستقلة.

openai/gpt-oss-20b

gpt-oss-20b هو نموذج OpenAI خفيف الوزن مفتوح المصدر بحوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية MoE وتكميم MXFP4 للتشغيل محليًا على أجهزة بذاكرة VRAM سعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم CoT واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers و vLLM و Ollama - مما يجعله مثاليًا لعمليات نشر إنترنت الأشياء الطرفية.

النوع الفرعي:
نموذج خبراء خفيف الوزن
المطور:openai
openai/gpt-oss-20b

openai/gpt-oss-20b: ذكاء طرفي فعال لإنترنت الأشياء

gpt-oss-20b هو نموذج OpenAI خفيف الوزن مفتوح المصدر بحوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية Mixture-of-Experts (MoE) وتكميم MXFP4 للتشغيل محليًا على أجهزة بذاكرة VRAM سعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم Chain-of-Thought (CoT) واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers و vLLM و Ollama. مع طول سياق يبلغ 131 ألفًا، هذا النموذج مناسب تمامًا لتطبيقات إنترنت الأشياء الذكي التي تتطلب ذكاءً على الجهاز، ومعالجة في الوقت الفعلي، والحد الأدنى من النفقات الحسابية. تتيح بنيته الفعالة النشر على أجهزة الحافة مع الحفاظ على قدرات استدلال استثنائية لسيناريوهات إنترنت الأشياء المعقدة.

المزايا

  • يعمل على ذاكرة VRAM بسعة 16 جيجابايت فقط، وهو مثالي لأجهزة الحافة.
  • بنية MoE مع 3.6 مليار معلمة نشطة فقط لتحقيق الكفاءة.
  • يدعم استدلال CoT واستخدام الأدوات لأتمتة إنترنت الأشياء.

العيوب

  • قد يحد عدد المعلمات الأصغر من بعض المهام المعقدة.
  • يتطلب الوعي بالتكميم للنشر الأمثل.

لماذا نحبه

  • إنه يوفر قدرات ذكاء اصطناعي قوية على أجهزة إنترنت الأشياء محدودة الموارد، مما يتيح ذكاءً طرفيًا حقيقيًا بأقل متطلبات للبنية التحتية وبسعر SiliconFlow معقول يبلغ 0.04 دولار لكل مليون رمز إدخال و 0.18 دولار لكل مليون رمز إخراج.

meta-llama/Meta-Llama-3.1-8B-Instruct

Meta Llama 3.1 8B هو نموذج متعدد اللغات ومُعدّل للتعليمات، ومُحسّن لحالات استخدام الحوار، تم تدريبه على أكثر من 15 تريليون رمز. مع 8 مليارات معلمة وطول سياق 33 ألفًا، يقدم أداءً استثنائيًا على معايير الصناعة مع الحفاظ على الكفاءة المثالية لبوابات إنترنت الأشياء، وخوادم الحافة، ووحدات التحكم في الأجهزة الذكية.

النوع الفرعي:
حوار فعال
المطور:meta-llama
meta-llama/Meta-Llama-3.1-8B-Instruct

meta-llama/Meta-Llama-3.1-8B-Instruct: أداء متوازن للأجهزة الذكية

Meta Llama 3.1 هي عائلة من نماذج اللغة الكبيرة متعددة اللغات التي طورتها Meta، وتتميز بمتغيرات مدربة مسبقًا ومُعدّلة للتعليمات. تم تحسين هذا النموذج المُعدّل للتعليمات بحجم 8 مليارات معلمة لحالات استخدام الحوار متعدد اللغات ويتفوق على العديد من نماذج الدردشة مفتوحة المصدر والمغلقة المتاحة في معايير الصناعة الشائعة. تم تدريب النموذج على أكثر من 15 تريليون رمز من البيانات المتاحة للجمهور، باستخدام تقنيات مثل الضبط الدقيق الخاضع للإشراف والتعلم المعزز مع التغذية الراجعة البشرية لتعزيز الفائدة والسلامة. مع دعم توليد النصوص والتعليمات البرمجية، وطول سياق 33 ألفًا، وتاريخ قطع المعرفة في ديسمبر 2023، يحقق هذا النموذج توازنًا مثاليًا بين القدرة والكفاءة لتطبيقات إنترنت الأشياء الذكي - من المساعدين الصوتيين إلى أنظمة أتمتة المنزل الذكي.

المزايا

  • 8 مليارات معلمة محسّنة للكفاءة والأداء.
  • دعم متعدد اللغات لعمليات نشر إنترنت الأشياء العالمية.
  • تم تدريبه باستخدام RLHF للحصول على استجابات آمنة ومفيدة.

العيوب

  • تاريخ قطع المعرفة في ديسمبر 2023.
  • قد يتطلب ضبطًا دقيقًا لمجالات إنترنت الأشياء المتخصصة.

لماذا نحبه

  • إنه يوفر قدرات حوار جاهزة للإنتاج مع دعم متعدد اللغات على نطاق مناسب لإنترنت الأشياء، مدعومًا بمنهجية تدريب Meta القوية ومتاح بأسعار SiliconFlow تنافسية تبلغ 0.06 دولار لكل مليون رمز.

THUDM/GLM-4-9B-0414

GLM-4-9B-0414 هو نموذج خفيف الوزن بـ 9 مليارات معلمة يظهر قدرات ممتازة في توليد التعليمات البرمجية، واستدعاء الوظائف، واستدعاء الأدوات. على الرغم من صغر حجمه، فإنه يظهر أداءً تنافسيًا في الاختبارات المعيارية مع الحفاظ على الكفاءة المثالية لسيناريوهات إنترنت الأشياء محدودة الموارد، والحوسبة الطرفية، والأنظمة الذكية المدمجة.

النوع الفرعي:
استدعاء الوظائف
المطور:THUDM
THUDM/GLM-4-9B-0414

THUDM/GLM-4-9B-0414: ذكاء إنترنت الأشياء الوكيل

GLM-4-9B-0414 هو نموذج صغير الحجم في سلسلة GLM بـ 9 مليارات معلمة. يرث هذا النموذج الخصائص التقنية لسلسلة GLM-4-32B ولكنه يوفر خيار نشر أخف وزنًا. على الرغم من صغر حجمه، لا يزال GLM-4-9B-0414 يظهر قدرات ممتازة في توليد التعليمات البرمجية، وتصميم الويب، وتوليد رسومات SVG، ومهام الكتابة القائمة على البحث. يدعم النموذج أيضًا ميزات استدعاء الوظائف، مما يسمح له باستدعاء أدوات خارجية لتوسيع نطاق قدراته. مع طول سياق 33 ألفًا، يظهر هذا النموذج توازنًا جيدًا بين الكفاءة والفعالية في السيناريوهات محدودة الموارد، مما يوفر خيارًا قويًا للمستخدمين الذين يحتاجون إلى نشر نماذج الذكاء الاصطناعي في ظل موارد حاسوبية محدودة. إنه مناسب بشكل خاص لتطبيقات إنترنت الأشياء الذكي التي تتطلب تكامل الأدوات، واستدعاءات API، وإدارة الأجهزة المستقلة.

المزايا

  • استدعاء الوظائف للتحكم في أجهزة إنترنت الأشياء والأتمتة.
  • 9 مليارات معلمة للنشر الفعال على الحافة.
  • توليد التعليمات البرمجية للبرمجة المنطقية على الجهاز.

العيوب

  • أصغر من النماذج الرائدة في السلسلة.
  • قد يحتاج إلى تحسين لبروتوكولات إنترنت الأشياء المحددة.

لماذا نحبه

  • إنه يجلب قدرات الوكالة إلى بيئات إنترنت الأشياء، مما يمكّن الأجهزة من التفاعل بشكل مستقل مع الأدوات والخدمات مع الحفاظ على كفاءة استثنائية بسعر SiliconFlow معقول يبلغ 0.086 دولار لكل مليون رمز.

مقارنة نماذج الذكاء الاصطناعي لإنترنت الأشياء الذكي

في هذا الجدول، نقارن نماذج اللغة الكبيرة مفتوحة المصدر الرائدة لعام 2025 والمحسّنة لتطبيقات إنترنت الأشياء الذكي. يتفوق openai/gpt-oss-20b ببنيته الخفيفة للغاية من نوع MoE لأجهزة الحافة، ويوفر meta-llama/Meta-Llama-3.1-8B-Instruct قدرات حوار متوازنة متعددة اللغات، ويقدم THUDM/GLM-4-9B-0414 استدعاء الوظائف لأتمتة إنترنت الأشياء الوكيلية. تساعدك هذه المقارنة جنبًا إلى جنب على اختيار النموذج الأمثل بناءً على قيود جهازك، ومتطلبات المعالجة، وحالة استخدام إنترنت الأشياء الخاصة بك.

الرقم النموذج المطور النوع الفرعي التسعير (SiliconFlow)القوة الأساسية
1openai/gpt-oss-20bopenaiنموذج خبراء خفيف الوزن0.04 دولار / 0.18 دولار لكل مليون رمزيعمل على أجهزة الحافة بذاكرة VRAM سعة 16 جيجابايت
2meta-llama/Meta-Llama-3.1-8B-Instructmeta-llamaحوار فعال0.06 دولار لكل مليون رمزمدرب بـ RLHF ومتعدد اللغات
3THUDM/GLM-4-9B-0414THUDMاستدعاء الوظائف0.086 دولار لكل مليون رمزاستدعاء الأدوات الوكيلية

الأسئلة الشائعة

اختياراتنا الثلاثة الأولى لتطبيقات إنترنت الأشياء الذكي لعام 2025 هي openai/gpt-oss-20b، و meta-llama/Meta-Llama-3.1-8B-Instruct، و THUDM/GLM-4-9B-0414. تميز كل من هذه النماذج بكفاءته، وعدد معلماته المدمج، وقدراته المتخصصة المناسبة لأجهزة الحافة محدودة الموارد وأنظمة الأتمتة الذكية.

يُظهر تحليلنا قادة مختلفين لاحتياجات إنترنت الأشياء المحددة. بالنسبة لأجهزة الحافة خفيفة الوزن للغاية ذات ذاكرة VRAM قليلة (16 جيجابايت)، يعد openai/gpt-oss-20b الخيار الأفضل ببنيته الفعالة من نوع MoE. لأنظمة إنترنت الأشياء التي تتطلب واجهات صوتية متعددة اللغات وحوارًا، يتفوق meta-llama/Meta-Llama-3.1-8B-Instruct بفضل تدريبه بـ RLHF. لتطبيقات إنترنت الأشياء الوكيلية التي تتطلب استدعاء الوظائف وتكامل الأدوات، يوفر THUDM/GLM-4-9B-0414 أفضل توازن بين القدرة والكفاءة.

مواضيع مشابهة

الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لسير عمل الوكلاء في 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة اليابانية في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للنشر المؤسسي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر بأقل من 20 مليار معلمة في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للتشخيص الطبي في عام 2025 الدليل الشامل - أفضل نموذج لغوي كبير مفتوح المصدر للغة الإيطالية في عام 2025 الدليل الشامل - أفضل ذكاء اصطناعي مفتوح المصدر للترجمة الفورية في عام 2025 الدليل الشامل - أفضل النماذج الصغيرة للأسئلة والأجوبة حول المستندات والصور في عام 2025 الدليل الشامل - أفضل نماذج LLM الصغيرة لروبوتات الدردشة على الأجهزة في عام 2025 الدليل الشامل - أفضل نماذج اللغات الكبيرة مفتوحة المصدر للتحليل الحكومي والسياسات في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للغة العربية في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام خفيفة الوزن في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لأبحاث المستهلك والتوصيات في عام 2025 الدليل الشامل - أرخص نماذج تحويل الكلام إلى نص في عام 2025 الدليل الشامل - أفضل نماذج توليد الفيديو خفيفة الوزن في عام 2025 أفضل نماذج الذكاء الاصطناعي الصغيرة لمراكز الاتصال في عام 2025 الدليل الشامل - أفضل نماذج تحويل النص إلى كلام صغيرة في عام 2025 الدليل الشامل - أفضل نماذج الذكاء الاصطناعي خفيفة الوزن للتقديم في الوقت الفعلي في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر لإنفاذ القانون والامتثال في عام 2025 الدليل الشامل - أفضل نماذج اللغة الكبيرة مفتوحة المصدر للأردية في عام 2025