باختصار
الـ Random Forest هي خوارزمية بتجمع مجموعة كبيرة من أشجار القرار، وكل شجرة بتتدرب على جزء مختلف من البيانات. في الآخر، القرار النهائي بيتاخد بتصويت الأغلبية بين كل الأشجار — زي ما تسأل مجموعة خبراء وتاخد رأي الأغلبية.
بالتفصيل
تخيل إنك عايز تعرف أحسن مطعم في المنطقة. لو سألت شخص واحد، رأيه ممكن يكون متحيز أو مش دقيق. بس لو سألت ١٠٠ شخص وأخدت رأي الأغلبية، النتيجة هتكون أدق بكتير. ده بالظبط الفكرة ورا الـ Random Forest — بدل ما تعتمد على شجرة قرار واحدة، بتستخدم غابة كاملة من الأشجار.
الـ Random Forest بتشتغل بالطريقة دي: أولاً بتاخد البيانات الأصلية وتعمل منها عينات عشوائية مختلفة (الطريقة دي اسمها Bagging). كل عينة بتتبعت لشجرة قرار مختلفة عشان تتدرب عليها. وكمان كل شجرة مش بتشوف كل الخصائص — بتشوف مجموعة عشوائية منها بس. ده بيخلي كل شجرة مختلفة عن التانية.
لما تيجي تاخد قرار بالـ Random Forest، كل شجرة بتدي رأيها، والقرار النهائي بيكون اللي أغلب الأشجار اتفقوا عليه. لو ١٠٠ شجرة وال ٧٠ منهم قالوا “أه” و٣٠ قالوا “لأ”، القرار النهائي هيكون “أه”.
ليه الـ Random Forest أحسن من شجرة قرار واحدة؟
- بتقلل مشكلة الـ Overfitting لأن كل شجرة بتشوف جزء مختلف من البيانات
- أدق في التنبؤات لأنها بتجمع آراء كتير
- بتشتغل كويس مع بيانات كبيرة ومعقدة
- بتقدر تحدد أهم الخصائص في البيانات
الـ Random Forest تعتبر من أنواع الـ Ensemble Learning (التعلم الجماعي)، وهي من أكتر الخوارزميات استخداماً في التطبيقات العملية عشان بتدي نتائج ممتازة من غير ما تحتاج ضبط كتير.
مثال عملي
لما تروح تعمل فحص طبي وتطلع نتائج التحاليل، ممكن يكون في نظام Random Forest بيحلل النتائج دي. مثلاً، ١٠٠ شجرة قرار بتشوف مستوى السكر والضغط والكوليسترول وعوامل تانية. ٨٥ شجرة قالوا “المريض في خطر” و١٥ قالوا “طبيعي” — النظام هيحذر الدكتور إن المريض محتاج متابعة. التنوع في الأشجار بيخلي التشخيص أدق من شجرة واحدة.
مصطلحات مرتبطة
- شجرة القرار (Decision Tree)
- التعلم الجماعي (Ensemble Learning)
- التعلم الموجّه (Supervised Learning)
- الإفراط في التعلم (Overfitting)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي