باختصار
الـ Mixture of Experts (MoE) (مزيج الخبراء) — بنية نموذج فيها عدة شبكات “خبيرة” متخصّصة، وموجّه (router) بيختار أي خبراء يشتغلوا على كل مدخل. بيدّي أداء نموذج كبير بتكلفة حسابية أقل.
بالتفصيل
المعمارية الصح بتفرق زي ما التصميم الهندسي الصح بيخلّي المبنى يستحمل الزلازل — المعمارية بتحدد قوة النموذج.
اختيار المعمارية الصح بيفرق كتير في أداء النموذج. الـ Mixture of Experts معمارية أو مكوّن بيأثر على إزاي النموذج بيعالج البيانات. الباحثين في شركات زي Google وMeta بيطوّروا معماريات جديدة كل سنة، وكل واحدة بتحاول تحل مشاكل المعماريات القديمة — سواء في السرعة أو الدقة أو استهلاك الذاكرة.
مثال عملي
نماذج زي ChatGPT وStable Diffusion وWhisper كلها مبنية على معماريات مختلفة. الباحثين بيجرّبوا تصميمات جديدة باستمرار — وكل معمارية ليها نقاط قوة وضعف. الـ Mixture of Experts واحد من التصميمات أو المكونات اللي بتحدد إزاي النموذج بيعالج البيانات وبيطلع نتايج.
مصطلحات مرتبطة
- شبكة عصبية التفافية (CNN (Convolutional Neural Network))
- شبكة عصبية تكرارية (RNN (Recurrent Neural Network))
- بنية مامبا (Mamba Architecture)
- بنية هجينة (Hybrid Architecture)
- نموذج لغوي صغير (Small Language Model (SLM))
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي