إيه هو الـ Ensemble Learning؟ | التعلم الجماعي

باختصار

الـ Ensemble Learning هو تقنية بتجمع أكتر من نموذج ذكاء اصطناعي مع بعض عشان تاخد قرار أدق. الفكرة بسيطة — زي ما تسأل كذا دكتور وتاخد رأي الأغلبية بدل ما تعتمد على رأي دكتور واحد.

بالتفصيل

تخيل إنك في برنامج مسابقات وقدامك سؤال صعب ومعاك خيار “سؤال الجمهور”. لما بتسأل الجمهور، مش بتاخد رأي شخص واحد — بتاخد رأي كل الناس والإجابة اللي أغلبهم اختارها بتكون عادةً هي الصح. ده لأن الأخطاء الفردية بتتلغي لما بتجمع آراء كتير، والحكمة الجماعية بتكون أدق من الحكمة الفردية. ده بالظبط مبدأ الـ Ensemble Learning.

في الذكاء الاصطناعي، بدل ما تعتمد على نموذج واحد ممكن يغلط، بتدرب عدة نماذج وبتجمع قراراتهم مع بعض. كل نموذج ليه نقاط قوة ونقاط ضعف مختلفة، ولما بتجمعهم، نقاط القوة بتتضاعف ونقاط الضعف بتتقلل.

في طرق مختلفة لتطبيق الـ Ensemble Learning:

  • Bagging (التكييس): كل نموذج بيتدرب على عينة مختلفة من البيانات وبعدين بتاخد تصويت الأغلبية — والـ Random Forest أشهر مثال على كده
  • Boosting (التعزيز): النماذج بتتدرب واحد ورا التاني، وكل نموذج جديد بيركز على الأخطاء اللي النموذج اللي قبله عملها
  • Stacking (التكديس): نموذج رئيسي بيتعلم إزاي يجمع نتائج النماذج التانية بأحسن طريقة

الـ Ensemble Learning من أكتر التقنيات فعالية في مسابقات علم البيانات زي Kaggle. تقريباً كل الحلول الفايزة بتستخدم شكل من أشكال الـ Ensemble لأنه بيحسن الأداء بشكل ملحوظ. العيب الوحيد إنه بيحتاج موارد حسابية أكتر لأنك بتشغل عدة نماذج بدل واحد.

مثال عملي

لما موقع زي Netflix بيرشحلك فيلم تتفرج عليه، مش بيعتمد على نموذج واحد. بيستخدم Ensemble من نماذج مختلفة: نموذج بيحلل تاريخ مشاهداتك، ونموذج بيشوف إيه اللي ناس شبهك حبوه، ونموذج بيحلل نوع الأفلام والممثلين. النماذج دي بتجتمع وبترشحلك الفيلم اللي أغلبها اتفقت إنه هيعجبك.

مصطلحات مرتبطة

شاهد أيضاً

إيه هو الـ Mixture of Experts (MoE)؟ | مزيج الخبراء

باختصار الـ Mixture of Experts (MoE) (مزيج الخبراء) — بنية نموذج فيها عدة شبكات “خبيرة” …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *