آخر المقالات

إيه هو الـ Mixture of Experts (MoE)؟ | مزيج الخبراء

باختصار الـ Mixture of Experts (MoE) (مزيج الخبراء) — بنية نموذج فيها عدة شبكات “خبيرة” متخصّصة، وموجّه (router) بيختار أي خبراء يشتغلوا على كل مدخل. بيدّي أداء نموذج كبير بتكلفة حسابية أقل. بالتفصيل المعمارية الصح بتفرق زي ما التصميم الهندسي الصح بيخلّي المبنى يستحمل الزلازل — المعمارية بتحدد قوة النموذج. اختيار المعمارية الصح بيفرق كتير في أداء النموذج. الـ Mixture …

أكمل القراءة »

إيه هي الـ RNN (Recurrent Neural Network)؟ | شبكة عصبية تكرارية

باختصار الـ RNN (Recurrent Neural Network) (شبكة عصبية تكرارية) — شبكة عصبية مصمّمة للبيانات المتسلسلة (زي النصوص والأصوات)، عندها “ذاكرة” بتسمح لها تفتكر معلومات سابقة. حلّ مكانها الـ Transformer في معظم التطبيقات. بالتفصيل المعمارية الصح بتفرق زي ما التصميم الهندسي الصح بيخلّي المبنى يستحمل الزلازل — المعمارية بتحدد قوة النموذج. اختيار المعمارية الصح بيفرق كتير في أداء النموذج. الـ RNN …

أكمل القراءة »

إيه هي الـ CNN (Convolutional Neural Network)؟ | شبكة عصبية التفافية

باختصار الـ CNN (Convolutional Neural Network) (شبكة عصبية التفافية) — نوع شبكات عصبية متخصّص في معالجة الصور، بيستخدم طبقات “التفاف” عشان يتعرّف على الأنماط البصرية (حواف، أشكال، وجوه). بالتفصيل زي ما المعماري بيصمّم مبنى بطبقات وغرف مختلفة — مهندسين الـ AI بيصمّموا شبكات عصبية بمعماريات مختلفة. اختيار المعمارية الصح بيفرق كتير في أداء النموذج. الـ CNN معمارية أو مكوّن بيأثر …

أكمل القراءة »