آخر المقالات

إيه هو الـ Overfitting؟ | فرط التخصيص

باختصار الـ Overfitting لما النموذج يحفظ بيانات التدريب عن ظهر قلب بدل ما يتعلم القواعد العامة — فبيفشل مع بيانات جديدة. بالتفصيل تخيل طالب حفظ إجابات 10 امتحانات قديمة كلها حرفاً حرفاً. لما وقف في امتحان بأسئلة مختلفة شوية، فشل — لأنه ما فهمش المادة، بس حفظ. الـ Overfitting بالظبط كده مع النماذج. النموذج بيتعلم «ضوضاء» التدريب وتفاصيل غير مهمة …

أكمل القراءة »

إيه هو الـ Distillation؟ | تقطير المعرفة

باختصار الـ Knowledge Distillation طريقة لتحويل نموذج ضخم وغالي التشغيل لنموذج أصغر وأسرع مع الاحتفاظ بمعظم ذكائه. بالتفصيل Knowledge Distillation أو «تقطير المعرفة» هو عملية بيكون فيها «نموذج مُعلّم» كبير يدرّب «نموذج طالب» أصغر. الفكرة مش بس إن الطالب يتقلّد إجابات المعلم الصح/غلط، لكن يتعلم كيفية تفكير المعلم — احتمالات كل إجابة وليس مجرد الإجابة النهائية. ده بيعطي الطالب معرفة …

أكمل القراءة »

إيه هو الـ RLHF؟ | التعلّم المعزّز من التغذية البشرية

باختصار الـ RLHF طريقة تدريب بتستخدم تقييمات بشرية لتعليم النموذج يطلع إجابات أحسن وأأمن وأكثر توافقاً مع تفضيلات الإنسان. بالتفصيل RLHF اختصار لـ Reinforcement Learning from Human Feedback. الفكرة إن النموذج بيولّد ردود متعددة، وبشر حقيقيين بيختاروا الأحسن، والنموذج بيتعلم منهم. العملية لها ثلاث مراحل: أولاً السؤال والإجابة العادية، ثانياً تدريب «نموذج المكافأة» على اختيارات البشر، وأخيراً استخدام Reinforcement Learning …

أكمل القراءة »