باختصار
الـ Loss Function هي مقياس رياضي بيحسب الفرق بين تنبّؤات النموذج والنتيجة الصحيحة. كل ما الخسارة قلّت، كل ما النموذج كان أدقّ. هي البوصلة اللي بتوجّه عملية التدريب كلها.
بالتفصيل
تخيّل إنك بتتعلّم ترمي سهام على هدف. بعد كل رمية، بتبص وتشوف السهم بعيد قد إيه عن المركز. المسافة دي هي “الخسارة” بتاعتك. كل ما المسافة قلّت، كل ما رميتك كانت أحسن. الـ Loss Function بتعمل نفس الحاجة بالظبط بس للنموذج — بتقيس قد إيه التنبّؤات بعيدة عن الإجابة الصحيحة.
من غير Loss Function، النموذج مش هيعرف هو كويس ولا وحش — زي ما تكون بترمي سهام وعينيك مغمّضة من غير ما حد يقولك فين السهم وقع. الدالة دي هي اللي بتدّي الـ Gradient Descent المعلومات اللي يحتاجها عشان يعدّل الأوزان ويحسّن الأداء.
في أنواع مختلفة من دوال الخسارة حسب نوع المهمة:
- Mean Squared Error (MSE): بتحسب متوسط مربّع الفرق بين التنبّؤ والقيمة الحقيقية — بتُستخدم في مهام التنبّؤ بالأرقام زي أسعار الأسهم
- Cross-Entropy Loss: بتقيس الفرق بين توزيعين احتماليين — بتُستخدم في مهام التصنيف زي “هل الصورة دي قطة ولا كلب؟”
- Binary Cross-Entropy: نسخة مخصصة للتصنيف بين فئتين بس (أيوه / لأ)
اختيار الـ Loss Function المناسبة مهم جدًا لأنها بتأثّر مباشرة على طريقة تعلّم النموذج. لو اخترت دالة غلط، النموذج ممكن يتعلّم يحسّن حاجة مش مهمة ويتجاهل الحاجة الأساسية. زي ما لو بتقيّم طبّاخ على سرعته بس من غير ما تدّوق الأكل — هيبقى سريع بس الأكل مش لذيذ.
مثال عملي
لو عندك نموذج بيتنبّأ بدرجة الحرارة بكرة، وقال 35 درجة بس الحقيقة كانت 30 درجة، الـ MSE Loss هتحسب (35-30)² = 25. لو تنبّؤ تاني قال 32 درجة، الخسارة هتبقى (32-30)² = 4 — أقل بكتير. النموذج بيتعلّم إن التنبّؤ التاني أحسن وبيحاول يخلّي كل تنبّؤاته قريبة كده من الحقيقة.
مصطلحات مرتبطة
- الانحدار التدريجي (Gradient Descent)
- المحسّن (Optimizer)
- بيانات التدريب (Training Data)
- الانتشار العكسي (Backpropagation)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي