ما هي نماذج اللغة الكبيرة مفتوحة المصدر لإنترنت الأشياء الذكي؟
نماذج اللغة الكبيرة مفتوحة المصدر لإنترنت الأشياء الذكي هي أنظمة ذكاء اصطناعي متخصصة مصممة للعمل بكفاءة على أجهزة الحافة والأنظمة المدمجة والأجهزة محدودة الموارد. تمكّن هذه النماذج الأتمتة الذكية، وواجهات اللغة الطبيعية، والصيانة التنبؤية، واتخاذ القرارات في الوقت الفعلي مباشرة على أجهزة إنترنت الأشياء. تم تحسينها لتقليل زمن الاستجابة، والحد الأدنى من استهلاك الذاكرة، وكفاءة الطاقة، وهي تمكّن المطورين من نشر قدرات الذكاء الاصطناعي المتطورة عبر المنازل الذكية، وأجهزة الاستشعار الصناعية، والأجهزة القابلة للارتداء، والأجهزة المتصلة دون الاعتماد على الاتصال السحابي المستمر. إنها تعزز الابتكار في الحوسبة الطرفية، وتضفي طابعًا ديمقراطيًا على الوصول إلى الذكاء الاصطناعي القوي لتطبيقات إنترنت الأشياء، وتمكّن مجموعة واسعة من حالات الاستخدام من الأجهزة التي يتم التحكم فيها بالصوت إلى أنظمة التصنيع المستقلة.
openai/gpt-oss-20b
gpt-oss-20b هو نموذج OpenAI خفيف الوزن مفتوح المصدر بحوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية MoE وتكميم MXFP4 للتشغيل محليًا على أجهزة بذاكرة VRAM سعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم CoT واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers و vLLM و Ollama - مما يجعله مثاليًا لعمليات نشر إنترنت الأشياء الطرفية.
openai/gpt-oss-20b: ذكاء طرفي فعال لإنترنت الأشياء
gpt-oss-20b هو نموذج OpenAI خفيف الوزن مفتوح المصدر بحوالي 21 مليار معلمة (3.6 مليار نشطة)، مبني على بنية Mixture-of-Experts (MoE) وتكميم MXFP4 للتشغيل محليًا على أجهزة بذاكرة VRAM سعة 16 جيجابايت. يضاهي o3-mini في مهام الاستدلال والرياضيات والصحة، ويدعم Chain-of-Thought (CoT) واستخدام الأدوات والنشر عبر أطر عمل مثل Transformers و vLLM و Ollama. مع طول سياق يبلغ 131 ألفًا، هذا النموذج مناسب تمامًا لتطبيقات إنترنت الأشياء الذكي التي تتطلب ذكاءً على الجهاز، ومعالجة في الوقت الفعلي، والحد الأدنى من النفقات الحسابية. تتيح بنيته الفعالة النشر على أجهزة الحافة مع الحفاظ على قدرات استدلال استثنائية لسيناريوهات إنترنت الأشياء المعقدة.
المزايا
- يعمل على ذاكرة VRAM بسعة 16 جيجابايت فقط، وهو مثالي لأجهزة الحافة.
- بنية MoE مع 3.6 مليار معلمة نشطة فقط لتحقيق الكفاءة.
- يدعم استدلال CoT واستخدام الأدوات لأتمتة إنترنت الأشياء.
العيوب
- قد يحد عدد المعلمات الأصغر من بعض المهام المعقدة.
- يتطلب الوعي بالتكميم للنشر الأمثل.
لماذا نحبه
- إنه يوفر قدرات ذكاء اصطناعي قوية على أجهزة إنترنت الأشياء محدودة الموارد، مما يتيح ذكاءً طرفيًا حقيقيًا بأقل متطلبات للبنية التحتية وبسعر SiliconFlow معقول يبلغ 0.04 دولار لكل مليون رمز إدخال و 0.18 دولار لكل مليون رمز إخراج.
meta-llama/Meta-Llama-3.1-8B-Instruct
Meta Llama 3.1 8B هو نموذج متعدد اللغات ومُعدّل للتعليمات، ومُحسّن لحالات استخدام الحوار، تم تدريبه على أكثر من 15 تريليون رمز. مع 8 مليارات معلمة وطول سياق 33 ألفًا، يقدم أداءً استثنائيًا على معايير الصناعة مع الحفاظ على الكفاءة المثالية لبوابات إنترنت الأشياء، وخوادم الحافة، ووحدات التحكم في الأجهزة الذكية.
meta-llama/Meta-Llama-3.1-8B-Instruct: أداء متوازن للأجهزة الذكية
Meta Llama 3.1 هي عائلة من نماذج اللغة الكبيرة متعددة اللغات التي طورتها Meta، وتتميز بمتغيرات مدربة مسبقًا ومُعدّلة للتعليمات. تم تحسين هذا النموذج المُعدّل للتعليمات بحجم 8 مليارات معلمة لحالات استخدام الحوار متعدد اللغات ويتفوق على العديد من نماذج الدردشة مفتوحة المصدر والمغلقة المتاحة في معايير الصناعة الشائعة. تم تدريب النموذج على أكثر من 15 تريليون رمز من البيانات المتاحة للجمهور، باستخدام تقنيات مثل الضبط الدقيق الخاضع للإشراف والتعلم المعزز مع التغذية الراجعة البشرية لتعزيز الفائدة والسلامة. مع دعم توليد النصوص والتعليمات البرمجية، وطول سياق 33 ألفًا، وتاريخ قطع المعرفة في ديسمبر 2023، يحقق هذا النموذج توازنًا مثاليًا بين القدرة والكفاءة لتطبيقات إنترنت الأشياء الذكي - من المساعدين الصوتيين إلى أنظمة أتمتة المنزل الذكي.
المزايا
- 8 مليارات معلمة محسّنة للكفاءة والأداء.
- دعم متعدد اللغات لعمليات نشر إنترنت الأشياء العالمية.
- تم تدريبه باستخدام RLHF للحصول على استجابات آمنة ومفيدة.
العيوب
- تاريخ قطع المعرفة في ديسمبر 2023.
- قد يتطلب ضبطًا دقيقًا لمجالات إنترنت الأشياء المتخصصة.
لماذا نحبه
- إنه يوفر قدرات حوار جاهزة للإنتاج مع دعم متعدد اللغات على نطاق مناسب لإنترنت الأشياء، مدعومًا بمنهجية تدريب Meta القوية ومتاح بأسعار SiliconFlow تنافسية تبلغ 0.06 دولار لكل مليون رمز.
THUDM/GLM-4-9B-0414
GLM-4-9B-0414 هو نموذج خفيف الوزن بـ 9 مليارات معلمة يظهر قدرات ممتازة في توليد التعليمات البرمجية، واستدعاء الوظائف، واستدعاء الأدوات. على الرغم من صغر حجمه، فإنه يظهر أداءً تنافسيًا في الاختبارات المعيارية مع الحفاظ على الكفاءة المثالية لسيناريوهات إنترنت الأشياء محدودة الموارد، والحوسبة الطرفية، والأنظمة الذكية المدمجة.
THUDM/GLM-4-9B-0414: ذكاء إنترنت الأشياء الوكيل
GLM-4-9B-0414 هو نموذج صغير الحجم في سلسلة GLM بـ 9 مليارات معلمة. يرث هذا النموذج الخصائص التقنية لسلسلة GLM-4-32B ولكنه يوفر خيار نشر أخف وزنًا. على الرغم من صغر حجمه، لا يزال GLM-4-9B-0414 يظهر قدرات ممتازة في توليد التعليمات البرمجية، وتصميم الويب، وتوليد رسومات SVG، ومهام الكتابة القائمة على البحث. يدعم النموذج أيضًا ميزات استدعاء الوظائف، مما يسمح له باستدعاء أدوات خارجية لتوسيع نطاق قدراته. مع طول سياق 33 ألفًا، يظهر هذا النموذج توازنًا جيدًا بين الكفاءة والفعالية في السيناريوهات محدودة الموارد، مما يوفر خيارًا قويًا للمستخدمين الذين يحتاجون إلى نشر نماذج الذكاء الاصطناعي في ظل موارد حاسوبية محدودة. إنه مناسب بشكل خاص لتطبيقات إنترنت الأشياء الذكي التي تتطلب تكامل الأدوات، واستدعاءات API، وإدارة الأجهزة المستقلة.
المزايا
- استدعاء الوظائف للتحكم في أجهزة إنترنت الأشياء والأتمتة.
- 9 مليارات معلمة للنشر الفعال على الحافة.
- توليد التعليمات البرمجية للبرمجة المنطقية على الجهاز.
العيوب
- أصغر من النماذج الرائدة في السلسلة.
- قد يحتاج إلى تحسين لبروتوكولات إنترنت الأشياء المحددة.
لماذا نحبه
- إنه يجلب قدرات الوكالة إلى بيئات إنترنت الأشياء، مما يمكّن الأجهزة من التفاعل بشكل مستقل مع الأدوات والخدمات مع الحفاظ على كفاءة استثنائية بسعر SiliconFlow معقول يبلغ 0.086 دولار لكل مليون رمز.
مقارنة نماذج الذكاء الاصطناعي لإنترنت الأشياء الذكي
في هذا الجدول، نقارن نماذج اللغة الكبيرة مفتوحة المصدر الرائدة لعام 2025 والمحسّنة لتطبيقات إنترنت الأشياء الذكي. يتفوق openai/gpt-oss-20b ببنيته الخفيفة للغاية من نوع MoE لأجهزة الحافة، ويوفر meta-llama/Meta-Llama-3.1-8B-Instruct قدرات حوار متوازنة متعددة اللغات، ويقدم THUDM/GLM-4-9B-0414 استدعاء الوظائف لأتمتة إنترنت الأشياء الوكيلية. تساعدك هذه المقارنة جنبًا إلى جنب على اختيار النموذج الأمثل بناءً على قيود جهازك، ومتطلبات المعالجة، وحالة استخدام إنترنت الأشياء الخاصة بك.
الرقم | النموذج | المطور | النوع الفرعي | التسعير (SiliconFlow) | القوة الأساسية |
---|---|---|---|---|---|
1 | openai/gpt-oss-20b | openai | نموذج خبراء خفيف الوزن | 0.04 دولار / 0.18 دولار لكل مليون رمز | يعمل على أجهزة الحافة بذاكرة VRAM سعة 16 جيجابايت |
2 | meta-llama/Meta-Llama-3.1-8B-Instruct | meta-llama | حوار فعال | 0.06 دولار لكل مليون رمز | مدرب بـ RLHF ومتعدد اللغات |
3 | THUDM/GLM-4-9B-0414 | THUDM | استدعاء الوظائف | 0.086 دولار لكل مليون رمز | استدعاء الأدوات الوكيلية |
الأسئلة الشائعة
اختياراتنا الثلاثة الأولى لتطبيقات إنترنت الأشياء الذكي لعام 2025 هي openai/gpt-oss-20b، و meta-llama/Meta-Llama-3.1-8B-Instruct، و THUDM/GLM-4-9B-0414. تميز كل من هذه النماذج بكفاءته، وعدد معلماته المدمج، وقدراته المتخصصة المناسبة لأجهزة الحافة محدودة الموارد وأنظمة الأتمتة الذكية.
يُظهر تحليلنا قادة مختلفين لاحتياجات إنترنت الأشياء المحددة. بالنسبة لأجهزة الحافة خفيفة الوزن للغاية ذات ذاكرة VRAM قليلة (16 جيجابايت)، يعد openai/gpt-oss-20b الخيار الأفضل ببنيته الفعالة من نوع MoE. لأنظمة إنترنت الأشياء التي تتطلب واجهات صوتية متعددة اللغات وحوارًا، يتفوق meta-llama/Meta-Llama-3.1-8B-Instruct بفضل تدريبه بـ RLHF. لتطبيقات إنترنت الأشياء الوكيلية التي تتطلب استدعاء الوظائف وتكامل الأدوات، يوفر THUDM/GLM-4-9B-0414 أفضل توازن بين القدرة والكفاءة.