باختصار
الـ Continual Learning هو قدرة النموذج إنه يفضل يتعلم حاجات جديدة من غير ما ينسى اللي اتعلمه قبل كده. ده من أكبر التحديات في الذكاء الاصطناعي لأن معظم النماذج لما بتتعلم حاجة جديدة بتنسى القديم.
بالتفصيل
إنت كبني آدم بتتعلم طول حياتك — اتعلمت تمشي وبعدين تجري وبعدين تسوق عربية وبعدين تطبخ، وكل ده من غير ما تنسى المهارات القديمة. لما اتعلمت تطبخ، منسيتش إزاي تمشي. بس نماذج الذكاء الاصطناعي مش كده — لو درّبت نموذج يعرف قطط وبعدين درّبته يعرف كلاب، ممكن ينسى القطط خالص! المشكلة دي اسمها Catastrophic Forgetting (النسيان الكارثي).
الـ Continual Learning (ويتسمى كمان Lifelong Learning) بيحاول يحل المشكلة دي عشان النموذج يقدر يتعلم مهام جديدة بالتتابع من غير ما يفقد اللي اتعلمه. العلماء طوروا طرق مختلفة لحل المشكلة:
- طريقة الذاكرة: النموذج بيحتفظ بعينة من البيانات القديمة وبيراجعها من وقت للتاني عشان ميتنساش
- طريقة التنظيم: بيحمي الأجزاء المهمة في النموذج اللي بتخزن المعرفة القديمة ومبيسمحش بتغييرها كتير
- طريقة التوسيع: بيكبّر النموذج ويضيف أجزاء جديدة لكل مهمة جديدة من غير ما يمس القديم
ليه الـ Continual Learning مهم أوي؟ لأن في الواقع العملي، البيانات والمهام بتتغير مع الوقت. مثلاً نظام توصيات في موقع تسوق محتاج يتعلم عن منتجات جديدة كل يوم من غير ما ينسى تفضيلات العملاء القديمة. لو كل مرة هتدرب النموذج من الصفر على كل البيانات، ده هياخد وقت وموارد رهيبة.
الـ Continual Learning من أكتر المجالات البحثية نشاطاً لأنه خطوة مهمة ناحية ذكاء اصطناعي أقرب للذكاء البشري — ذكاء بيتطور ويتعلم بدون ما يفقد خبراته السابقة.
مثال عملي
تطبيق المساعد الصوتي على موبايلك (زي Siri أو Google Assistant) محتاج يتعلم يفهم كلمات وأوامر جديدة مع الوقت — ناس بتخترع مصطلحات جديدة، تطبيقات جديدة بتظهر، وعادات المستخدمين بتتغير. باستخدام الـ Continual Learning، المساعد بيتعلم الحاجات الجديدة دي من غير ما ينسى إزاي يفهم الأوامر القديمة اللي الناس لسه بتستخدمها.
مصطلحات مرتبطة
- التعلم الفوقي (Meta-learning)
- التعلم المنهجي (Curriculum Learning)
- نقل التعلم (Transfer Learning)
- الضبط الدقيق (Fine-tuning)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي