المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
تحليل مستقل لنماذج الذكاء الاصطناعي وموفري الاستضافة - اختر أفضل نموذج ومزود واجهة برمجة تطبيقات لحالة الاستخدام الخاصة بك
أصدرت NVIDIA نموذج Nemotron 3 Super، وهو نموذج تفكير أوزان مفتوحة بسعة 120B (نشط 12B) يحصل على تقييم 36 في مؤشر الذكاء التحليلي الاصطناعي، مع بنية هجينة بين مامبا-محول MoE
حصلنا على الوصول إلى هذا النموذج قبل الإطلاق وقيموه من حيث الذكاء والانفتاح وكفاءة الاستدلال.
النقاط الرئيسية
➤ يجمع بين الانفتاح العالي والذكاء القوي: أداء Nemotron 3 Super بقوة بالنسبة لحجمه وهو أكثر ذكاء بكثير من أي نموذج آخر ذو انفتاح مماثل
➤ حصل Nemotron 3 Super على 36 نقطة في مؤشر الذكاء التحليلي الاصطناعي، متقدما +17 نقطة على الإصدار السابق Super و+12 نقطة عن Nemotron 3 Nano. مقارنة بالنماذج ذات الفئة المشابهة من الحجم، هذا يضعه في المقدمة على GPT-OSS-120B (33)، لكنه خلف Qwen3.5 122B A10B الذي تم إصداره مؤخرا (42).
➤ التركيز على الذكاء الفعال: وجدنا أن Nemotron 3 Super يتمتع بذكاء أعلى من gpt-oss-120b مع تمكين ~10٪ زيادة في معدل نقل لكل وحدة معالجة رسومية في اختبار تحميل بسيط لكنه واقعي
➤ مدعوم اليوم للاستدلال السريع بدون خادم: مزودون مثل @DeepInfra و@LightningAI يخدمون هذا النموذج عند الإطلاق بسرعات تصل إلى 484 رمزا في الثانية
تفاصيل النموذج
📝 يحتوي Nemotron 3 Super على 120.6 مليار معلمة بإجمالي و12.7 مليار معلمة نشطة، بالإضافة إلى نافذة سياق بقيمة مليون رمز ودعم للتفكير الهجين. ينشر بأوزان مفتوحة ورخصة متساهلة، إلى جانب بيانات التدريب المفتوحة والإفصاح عن المنهجية
📐 يحتوي النموذج على عدة ميزات تصميم تتيح الاستدلال الفعال، بما في ذلك استخدام هياكل هجينة بين مامبا-ترانسفورمر وLatentMoE، والتنبؤ بعدة رموز، وأوزان كمية NVFP4
🎯 NVIDIA دربت Nemotron 3 Super مسبقا بدقة NVFP4 (في الغالب)، لكنها انتقلت إلى BF16 بعد التدريب. تستخدم درجات التقييم لدينا أوزان BF16
🧠 قمنا بمقارنة نيموترون 3 سوبر في وضع الاستدلال الأعلى جهدا ("العادي"), وهو الأكثر قدرة من بين أوضاع الاستدلالات الثلاثة في النموذج (الاستدلال، منخفض الجهد، والمنتظم)

6.4K
أصدرت علي بابا 4 طرازات جديدة من Qwen3.5 من 0.8B إلى 9B. النموذج 9B (المنطق، 32 في مؤشر الذكاء) هو النموذج الأكثر ذكاء تحت 10B معلمات، و4B (التفكير، 27) هو الأكثر ذكاء تحت 5B، لكن كلاهما يستخدم رموز إخراج 200M+ لتشغيل مؤشر الذكاء
@Alibaba_Qwen وسعت عائلة Qwen3.5 بأربعة نماذج أصغر كثافة كثافة: 9B (التفكير، 32 في مؤشر الذكاء)، 4B (التفكير، 27)، 2B (التفكير، 16)، و0.8B (التفكير، 9). تكمل هذه الطرازات الأكبر 397B و27B و122B A10B و35B A3B التي صدرت في وقت سابق من هذا الشهر. جميع النماذج مرخصة بنظام Apache 2.0، وتدعم سياق 262K، وتشمل دعم الرؤية الأصلية، وتستخدم نفس النهج الهجين الموحد بين التفكير وعدم التفكير كما في بقية عائلة Qwen3.5
نتائج المقارنة الرئيسية لمتغيرات المنطق:
➤ النماذج 9B و4B هما الأكثر ذكاء في فئات الحجم الخاصة بهما، متقدمين على جميع النماذج الأخرى تحت معايير 10B. Qwen3.5 9B (32) يحقق تقريبا ضعف النماذج الأقرب التالية تحت 10B: فالكون-H1R-7B (16) وNVIDIA Nemotron Nano 9B V2 (Reasoning، 15). Qwen3.5 4B (27) يتفوق على جميع هذه النقاط رغم أن لديه حوالي نصف المعايير. جميع نماذج Qwen3.5 الصغيرة الأربعة تقع على حدود باريتو في مخطط الذكاء مقابل المعلمات الكلية
➤ يمثل جيل Qwen3.5 ارتفاعا في الذكاء المادي مقارنة ب Qwen3 عبر جميع أحجام النماذج تحت 10B، مع مكاسب أكبر عند أعداد معلمات إجمالية أعلى. مقارنة الأنواع المنطقية: Qwen3.5 9B (32) يتقدم ب 15 نقطة على Qwen3 VL 8B (17)، و4B (27) يكسب 9 نقاط على Qwen3 4B 2507 (18)، و2B (16) يتقدم ب 3 نقاط على Qwen3 1.7B (تقدير 13)، و0.8B (9) يكسب 2.5 نقطة عن Qwen3 0.6B (6.5).
➤ جميع النماذج الأربعة تستخدم رموز إخراج تتراوح بين 230-390 مليون لتشغيل مؤشر الذكاء، وهو أكثر بكثير من كل من الأشقاء الأكبر في Qwen3.5 وسابقي Qwen3. استخدم Qwen3.5 2B رموز إخراج ~390M، و4B استخدم ~240M، و0.8B استخدم ~230M، و9B استخدم ~260M. للسياق، استخدم القاطرة الأكبر بكثير Qwen3.5 27B 98M، بينما استخدم الرائد 397B 86M. تتجاوز هذه الرموز أيضا معظم الطرازات الحدودية: Gemini 3.1 Pro Preview (57M)، GPT-5.2 (xhigh، 130M)، وGLM-5 Reasoning (109M)
➤ AA-المعرفة المطلقة هي نقطة ضعف نسبية، حيث تتراوح معدلات الهلوسة بين 80-82٪ للفئتين 4B و9B. Qwen3.5 4B يحصل على درجة -57 في AA-Omniscience مع معدل هلوسة 80٪ ودقة 12.8٪. Qwen3.5 9B يحصل على -56 مع 82٪ هلوسة ودقة 14.7٪. هذه أفضل قليلا من أسلافها في Qwen3 (Qwen3 4B 2507: -61، 84٪ هلوسة، 12.7٪ دقة)، مع تحسن يعود بشكل أساسي إلى انخفاض معدلات الهلوسة بدلا من الدقة الأعلى.
➤ نماذج Qwen3.5 تحت 10B تجمع بين الذكاء العالي والرؤية الأصلية على نطاق لم يكن متاحا من قبل. في MMMU-Pro (الاستدلال متعدد الوسائط)، حصلت Qwen3.5 9B على 69.2٪ و4B 65.4٪، متقدمة على Qwen3 VL 8B (56.6٪)، Qwen3 VL 4B (52.0٪)، وMinistral 3 8B (46.0٪). يحقق Qwen3.5 0.8B نسبة 25.8٪، وهو أمر ملحوظ لنموذج تحت 1B
معلومات أخرى:
➤ نافذة السياق: 262 ألف رمز
➤ الرخصة: Apache 2.0
➤ التكميم: الأوزان الأصلية هي BF16. لم تصدر علي بابا تقطيعات GPTQ-Int4 من الطرف الأول لهذه النماذج الصغيرة، رغم أنها أصدرت للنماذج الأكبر في عائلة Qwen3.5 التي صدرت سابقا (27B، 35B-A3B، 122B-A10B، 397B-A17B). في التكميم 4-بت، جميع النماذج الأربعة متاحة على أجهزة المستهلك
➤ التوفر: عند وقت النشر، لا توجد واجهات برمجة تطبيقات من الطرف الأول أو خارجية بدون خادم تستضيف هذه النماذج

9.87K
الأفضل
المُتصدِّرة
التطبيقات المفضلة
