باختصار
الـ Small Language Model (SLM) (نموذج لغوي صغير) — نموذج لغوي بمعاملات أقل (عادةً أقل من 10 مليار) مصمّم يشتغل على أجهزة محلية أو حالات استخدام محدّدة بكفاءة عالية — زي Phi وGemma.
بالتفصيل
تخيّل إنك بتبني مصنع — كل قسم فيه وظيفة معينة وبيتعاون مع الأقسام التانية. الشبكات العصبية بتشتغل بنفس المبدأ.
اختيار المعمارية الصح بيفرق كتير في أداء النموذج. الـ Small Language Model معمارية أو مكوّن بيأثر على إزاي النموذج بيعالج البيانات. الباحثين في شركات زي Google وMeta بيطوّروا معماريات جديدة كل سنة، وكل واحدة بتحاول تحل مشاكل المعماريات القديمة — سواء في السرعة أو الدقة أو استهلاك الذاكرة.
مثال عملي
نماذج زي ChatGPT وStable Diffusion وWhisper كلها مبنية على معماريات مختلفة. الباحثين بيجرّبوا تصميمات جديدة باستمرار — وكل معمارية ليها نقاط قوة وضعف. الـ Small Language Model واحد من التصميمات أو المكونات اللي بتحدد إزاي النموذج بيعالج البيانات وبيطلع نتايج.
مصطلحات مرتبطة
- شبكة عصبية التفافية (CNN (Convolutional Neural Network))
- شبكة عصبية تكرارية (RNN (Recurrent Neural Network))
- مزيج الخبراء (Mixture of Experts (MoE))
- بنية مامبا (Mamba Architecture)
- بنية هجينة (Hybrid Architecture)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي