آخر المقالات

إيه هو الـ Normalization (Batch/Layer)؟ | التطبيع (على مستوى الدفعة/الطبقة)

باختصار الـ Normalization (Batch/Layer) (التطبيع (على مستوى الدفعة/الطبقة)) — تقنية بتعيد توزيع البيانات عشان تكون حول الصفر بتشتّت موحّد — بتخلّي التدريب أسرع وأكثر استقراراً وبتمنع الأرقام من إنها تكبر أو تصغر أوي. بالتفصيل ورا كل نموذج ذكاء اصطناعي فيه رياضيات — والرياضيات هي اللغة السرية اللي بيتكلم بيها الـ AI. مش لازم تكون عالم رياضيات عشان تستخدم الـ AI …

أكمل القراءة »

إيه هو الـ Attention Score؟ | درجة الانتباه

باختصار الـ Attention Score (درجة الانتباه) — رقم بيحدّد قد إيه كلمة معيّنة لازم “تنتبه” لكلمة تانية في الجملة — ده جوهر آلية الانتباه اللي خلّت نماذج المحوّلات (Transformers) ناجحة. بالتفصيل ممكن تستخدم الـ AI من غير ما تفهم الرياضيات — بس لو فهمتها، هتبقى أقوى بكتير. مش لازم تكون عالم رياضيات عشان تستخدم الـ AI — بس فهم الأساسيات …

أكمل القراءة »

إيه هو الـ ReLU؟ | وحدة التصحيح الخطي

باختصار الـ ReLU (وحدة التصحيح الخطي) — دالة تنشيط بسيطة جداً: لو الرقم موجب ترجعه زي ما هو، لو سالب ترجع صفر — بساطتها خلّتها الأكثر استخداماً في الشبكات العصبية العميقة. بالتفصيل ممكن تستخدم الـ AI من غير ما تفهم الرياضيات — بس لو فهمتها، هتبقى أقوى بكتير. مش لازم تكون عالم رياضيات عشان تستخدم الـ AI — بس فهم …

أكمل القراءة »