المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
مستثمر، كاتب، معلم، ومحب 🐉 للعبة دراغون بول
طالب علوم الحاسب في معهد ماساتشوستس للتكنولوجيا أنهى فصله الدراسي الأخير بمعدل تراكمي 4.0.
وجدت سير عمل NotebookLM الخاص به مدفونا في موضوع على ريديت الساعة 2 صباحا. حذفها بعد ساعة.
هذا بالضبط ما كان يفعله.
لم يرفع شرائح المحاضرات أبدا وطلب ملخصا.
كان أول سؤال له دائما: "هذه ملاحظاتي، فصل الكتاب المدرسي، وأوراق العام الماضي. أعطني الطرق الثلاث التي يخدع بها الأساتذة الطلاب في الامتحانات بهذا المفهوم. ثم أنشئ مشكلة تجمعها مع كل ما حدث من الأسابيع الثلاثة الماضية."
لم يكن يدرس المادة.
كان يدرس كيف تستخدم المادة كسلاح ضدك.
لكن الحركة التي جعلتني أغلق اللابتوب وأحدق في السقف كانت حركته الثانية.
رفع كل مهمة أخطأ فيها طوال الفصل الدراسي.
ثم سأل: "ابحث عن النمط في أخطائي. ما هو المفهوم الوحيد الذي أسيء فهمه بأشكال مختلفة؟"
كل طالب آخر كان يستخدم NotebookLM كمحرك بحث.
كان يستخدمها كمرآة.
تم حفظ الرسالة الثالثة كاختصار على هاتفه.
"استنادا إلى ملاحظاتي وهذه الأوراق السابقة، ما هو الموضوع الذي أنا أقل استعدادا له الآن؟ أعطني الأسئلة الخمسة الأكثر احتمالا للظهور في امتحاني النهائي والتي لا أستطيع الإجابة عليها بعد."
ثلاث محفزات. كل أسبوع.
بينما كان زملاؤه يعيدون قراءة الشرائح في الليلة التي تسبق الامتحانات النهائية، كان يعرف بالفعل أين سيرسب.
ثم أصلحها.
لم يدرس بجد أكثر.
لم يسمح لنفسه أبدا بالشعور بالراحة.

28
🚨 أصدرت NVIDIA مؤخرا مخططا لتدريب نماذج الذكاء الاصطناعي ذات التريليونات معاملات.
ويشرح بهدوء كيف أن الجيل القادم من النماذج سيتوسع بشكل أبعد بكثير من نماذج اللغة الكبيرة الحالية.
تقدم الورقة نظاما لتدريب نماذج مزيج الخبراء (MoE) باستخدام Megatron Core، نفس عائلة البنية التحتية المستخدمة لتدريب بعض أكبر النماذج في العالم.
الفكرة الأساسية وراء وزارة التعليم بسيطة لكنها قوية:
بدلا من تفعيل النموذج الكامل لكل رمز، يقوم النظام بتوجيه كل رمز إلى عدد قليل فقط من "الخبراء" المتخصصين.
هذا يعني أنه يمكنك توسيع المعاملات الإجمالية بشكل كبير دون زيادة الحوسبة لكل رمز.
نظريا، هذا يعطيك ما يلي:
• سعة تريليون معلم
• حساب على مستوى النموذج الكثيف لكل رمز
• مكاسب كفاءة هائلة
لكن في الواقع، هذا يكسر كل شيء.
تدريب نماذج MoE يخلق كابوسا عبر ثلاث طبقات أنظمة:
ذاكرة. التواصل. الحساب.
إذا حسنت أحدهما ستتسبب في عنق الزجاجة للبقية.
حل NVIDIA هو في الأساس تصميم مشترك شامل لخط أنابيب التدريب بالكامل.
قدموا عدة تحسينات على مستوى النظام:
• إعادة حساب دقيقة وتفريغ الذاكرة للتحكم في ضغط ذاكرة وحدة معالجة الرسوميات
• موزعي الرموز المحسنة بحيث يمكن توجيه الرموز بين الخبراء بكفاءة
• رسوم GEMM + CUDA المجمعة لتعظيم استخدام حساب وحدة معالجة الرسومات
• الطي المتوازي، الذي يتيح التوازي متعدد الأبعاد المرن بين وحدات معالجة الرسومات
• تدريب منخفض الدقة (FP8 / NVFP4) لتقليل تكلفة الحوسبة بشكل كبير
كل هذا يعمل داخل حزمة التدريب المفتوحة المصدر من NVIDIA على Megatron Core.
أرقام الأداء سخيفة.
حول أحدث أنظمة بطاقات الرسومات من NVIDIA:
• 1,233 TFLOPS لكل تدريب على بطاقة الرسوميات DeepSeek-V3-685B
• 974 TFLOPS لكل تدريب على وحدة معالجة الرسوميات Qwen3-235B
والإطار بالفعل يتوسع عبر آلاف وحدات معالجة الرسومات في مجموعات الإنتاج.
القصة الأكبر هنا ليست فقط التدريب الأسرع.
إنه اتجاه هندسة الذكاء الاصطناعي.
النماذج الكثيفة تتوسع بشكل خطي مع الحوسبة.
نماذج وزارة الطاقة تتوسع تقريبا بشكل أسي مع المعلمات مع الحفاظ على سهولة الحوسبة.
هكذا تحصل على:
نماذج 100B → 1T → 10T.
نفس الميزانية الحسابية.
فقط توجيه ذكي.
إذا انفجرت الموجة القادمة من نماذج الحدود مرة أخرى في الحجم، تشرح هذه الورقة بالضبط كيف سيتم تدريبها.
ورقة: تدريب قابل للتوسع لنماذج مزيج من الخبراء باستخدام نواة ميجاترون

41
الأفضل
المُتصدِّرة
التطبيقات المفضلة

