إيه هو الـ Cross-validation؟ | التحقق المتقاطع

باختصار

الـ Cross-validation هو طريقة لتقييم أداء النموذج بإنك تقسم البيانات لأجزاء وتدرب على بعضها وتختبر على الباقي بالتناوب. الهدف إنك تتأكد إن النتيجة اللي النموذج بيجيبها مش صدفة وإنه فعلاً بيتعلم صح.

بالتفصيل

تخيل إنك عايز تعرف مستوى لاعب كورة. لو شفته بيلعب ماتش واحد بس، ممكن يكون يومه كويس أو وحش — مش هتعرف مستواه الحقيقي. بس لو شفته في 5 ماتشات مختلفة ضد فرق مختلفة، هتقدر تحكم على مستواه بشكل أدق. الـ Cross-validation بيعمل نفس الحاجة مع النموذج — بيختبره أكتر من مرة عشان يتأكد من مستواه الحقيقي.

الطريقة الأشهر هي K-Fold Cross-validation. بتقسم البيانات لـ K جزء متساوي (مثلاً 5 أجزاء). في المرة الأولى، بتدرب على 4 أجزاء وتختبر على الجزء الخامس. في المرة التانية، بتدرب على 4 أجزاء تانية وتختبر على جزء مختلف. وهكذا لحد ما كل جزء يتم الاختبار عليه مرة. في الآخر، بتاخد متوسط النتايج كلها.

ليه ده مهم؟ لأن لو قسمت البيانات مرة واحدة بس لتدريب واختبار، ممكن يكون التقسيم بالصدفة سهل أو صعب. الـ Cross-validation بيحل المشكلة دي لأن كل نقطة بيانات بتتحط في مجموعة الاختبار مرة.

في أنواع تانية زي:

  • Leave-One-Out (LOO): كل مرة بتسيب مثال واحد بس للاختبار — دقيق بس بطيء جداً
  • Stratified K-Fold: بيحافظ على نسب الفئات في كل جزء — مهم لو البيانات مش متوازنة
  • Repeated K-Fold: بيكرر العملية أكتر من مرة بتقسيمات مختلفة

الـ Cross-validation مهم جداً لأنه بيساعدك تكتشف لو النموذج عامل Overfitting. لو النتايج متذبذبة بين الأجزاء المختلفة، ده معناه إن النموذج مش مستقر ومحتاج تعديل.

مثال عملي

لو بتبني نموذج يتوقع لو عميل بنك هيسدد القرض ولا لأ، وعندك 10,000 سجل. بدل ما تقسمهم مرة واحدة، بتعمل 5-Fold Cross-validation والنتايج بتطلع: 87%، 85%، 88%، 86%، 87%. المتوسط 86.6% وده بيديك ثقة إن النموذج فعلاً كويس مش مجرد صدفة.

مصطلحات مرتبطة

شاهد أيضاً

إيه هو الـ Mixture of Experts (MoE)؟ | مزيج الخبراء

باختصار الـ Mixture of Experts (MoE) (مزيج الخبراء) — بنية نموذج فيها عدة شبكات “خبيرة” …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *