باختصار
الـ Activation Function هي دالة رياضية في الشبكة العصبية (Neural Network) بتقرر إذا كانت الخلية العصبية (Neuron) هتشتغل ولا لأ — يعني بتحدد إذا كانت الإشارة هتعدي للطبقة اللي بعدها ولا هتتوقف.
بالتفصيل
تخيّل إنك شغّال حارس أمن في بوابة مبنى. كل شخص بيجي عندك ومعاه بطاقة فيها درجة تصريح. لو الدرجة فوق حد معين، بتسيبه يعدّي. لو تحت الحد، بتوقفه. وممكن كمان تسيب بعض الناس يعدوا بشكل جزئي — يعني تقلل سرعتهم بس ما توقفهمش خالص. الـ Activation Function بتعمل نفس الدور ده بالظبط في الشبكة العصبية.
كل خلية عصبية (Neuron) بتستقبل إشارات من الخلايا اللي قبلها، وبتجمعهم مع بعض. بعد كده الـ Activation Function بتاخد المجموع ده وتحوّله لقيمة خرج. من غير الـ Activation Function، الشبكة كلها هتكون مجرد عملية حسابية بسيطة (خطية) ومش هتقدر تتعلّم حاجات معقدة — زي التفريق بين صورة قطة وصورة كلب.
في أنواع كتير من دوال التنشيط. أشهرها الـ ReLU (Rectified Linear Unit) — ودي ببساطة بتقول: “لو القيمة موجبة، سيبها زي ما هي. لو سالبة، خليها صفر”. بسيطة بس فعّالة جدًا وبتتستخدم في أغلب الشبكات الحديثة. كمان في الـ Sigmoid اللي بتحوّل أي رقم لقيمة ما بين 0 و1 — زي إنها بتقول “أنا متأكد بنسبة 80% إن دي قطة”. وفي الـ Softmax اللي بتتستخدم في آخر طبقة لما عايز النموذج يختار بين عدة خيارات.
اختيار الـ Activation Function المناسبة بيأثر بشكل كبير على أداء الشبكة العصبية. الاختيار الغلط ممكن يخلي النموذج يتعلّم ببطء شديد أو ما يتعلمش خالص. عشان كده المهندسين بيجرّبوا أنواع مختلفة ويشوفوا أنهي واحدة بتدّي أحسن نتايج للمهمة بتاعتهم.
مثال عملي
لما بترفع صورة على Instagram وبيقترح عليك فلاتر أو بيتعرّف على الأشخاص في الصورة، ورا الكواليس في شبكة عصبية كل طبقة فيها بتستخدم Activation Functions. الطبقة الأولى ممكن خلاياها تتنشط لما تلاقي خطوط وحواف. الطبقة التانية بتتنشط لما تلاقي أشكال زي عيون أو أنف. والطبقة الأخيرة بتستخدم Softmax عشان تقرر “ده أحمد بنسبة 95%”. كل طبقة من دول فيها Activation Functions بتقرر أنهي خلايا تشتغل وأنهي تسكت.
مصطلحات مرتبطة
- شبكة عصبية (Neural Network)
- الانتشار العكسي (Backpropagation)
- الأوزان (Weights)
- التعلّم العميق (Deep Learning)
- خلية عصبية (Neuron)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي