إيه هي الـ Epoch؟ | الحقبة التدريبية

باختصار

الـ Epoch هي لفة كاملة على كل بيانات التدريب. يعني لما النموذج يشوف كل الأمثلة مرة واحدة، ده بيكون Epoch واحد. وعادةً النموذج بيحتاج عدة حقب عشان يتعلم كويس ويوصل لنتائج دقيقة.

بالتفصيل

تخيل إنك بتذاكر لامتحان وعندك كتاب فيه ١٠٠ صفحة. أول مرة تقرأ الكتاب من الأول للآخر، ده Epoch واحد. بعد ما تخلّصه، هتلاقي إنك مش فاهم كل حاجة، فبتقرأه تاني — ده Epoch تاني. وكل مرة بتقرأ الكتاب، بتفهم أكتر وبتلاحظ حاجات مكنتش شايفها قبل كده. ده بالظبط اللي بيحصل مع نموذج الذكاء الاصطناعي أثناء التدريب.

لما بندرب نموذج، بنعرضه على بيانات التدريب أكتر من مرة. كل مرة النموذج بيعدي على كل البيانات، ده Epoch واحد. وأثناء كل Epoch، النموذج بيعدّل في نفسه عشان يقلل الأخطاء. مع كل Epoch جديد، أداء النموذج بيتحسن — لحد نقطة معينة.

عدد الـ Epochs مهم جداً وبيأثر على جودة النموذج:

  • Epochs قليلة أوي: النموذج مش هيتعلم كفاية — زي الطالب اللي ذاكر الكتاب مرة واحدة بسرعة
  • Epochs كتيرة أوي: النموذج ممكن يحفظ البيانات بدل ما يفهمها (ده الـ Overfitting) — زي الطالب اللي حفظ الكتاب حرف حرف بس مش فاهم حاجة
  • العدد المناسب: النموذج بيفهم الأنماط كويس ويقدر يطبقها على بيانات جديدة

في كل Epoch، البيانات مش بتتعرض على النموذج مرة واحدة — بتتقسم لمجموعات صغيرة اسمها Batches. حجم المجموعة ده هو الـ Batch Size. والنموذج بيتعدل بعد كل Batch بمعدل اسمه Learning Rate. الحاجات التلاتة دي — عدد الـ Epochs وحجم الـ Batch ومعدل التعلم — من أهم إعدادات التدريب اللي بتأثر على النتيجة النهائية.

مثال عملي

لو بتدرب نموذج يتعرف على الأرقام المكتوبة بخط اليد وعندك ٦٠,٠٠٠ صورة تدريب. في أول Epoch النموذج ممكن يعرف ٧٠٪ من الأرقام صح بس. بعد ١٠ حقب، الدقة بتوصل ٩٥٪. بعد ٥٠ حقبة بتوصل ٩٩٪. بس لو كملت لـ ٥٠٠ حقبة، النموذج ممكن يبدأ يحفظ صور التدريب بالظبط ويفشل مع أي خط يد جديد.

مصطلحات مرتبطة

شاهد أيضاً

إيه هو الـ Mixture of Experts (MoE)؟ | مزيج الخبراء

باختصار الـ Mixture of Experts (MoE) (مزيج الخبراء) — بنية نموذج فيها عدة شبكات “خبيرة” …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *