باختصار
الـ LoRA طريقة ذكية للـ Fine-tuning بتعدّل جزء صغير من النموذج بدل كله — أسرع وأرخص وبنفس الجودة.
بالتفصيل
LoRA اختصار لـ Low-Rank Adaptation. بدل ما تعدّل كل المليارات من المعاملات في النموذج الضخم، LoRA بتضيف «طبقات صغيرة» جانبية بتعلّم الفرق المطلوب.
تخيل إنك بدل ما تعيد رسم لوحة كاملة، بتضيف طبقة شفافة فوقها بتحتوي التعديلات الجديدة. النموذج الأصلي مش بيتغير — بس الطبقة الجديدة بتعدّل الإخراج.
النتيجة: تقدر تعمل Fine-tuning على GPU عندي في البيت بدل سيرفرات بمئات الآلاف من الدولارات.
مثال عملي
مصمم جرافيك استخدم LoRA يضيف طبقة لنموذج Stable Diffusion عشان يتعلم أسلوبه الفني الخاص. بعد 200 صورة فقط كبيانات تدريب، النموذج بقى يولّد صور بنفس أسلوبه.
مصطلحات مرتبطة
Fine-tuning، QLoRA، Quantization، Adapter Layers
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي