عندك بيانات خاصة ومحتاج نموذج AI يفهمها بشكل أفضل؟ الضبط الدقيق (Fine-tuning) هو الحل — بتاخد نموذج جاهز وتدربه على بياناتك.
إيه هو Fine-tuning؟
الضبط الدقيق (Fine-tuning) معناه إنك بتاخد نموذج كبير اتدرب على بيانات عامة (زي GPT-4 أو Llama) وبتدربه إضافياً على بيانات محددة عشان يتخصص.
التشبيه: زي دكتور عام بيتخصص — عنده أساس قوي في الطب العام، وبعدها بيتعمق في تخصص معين.
متى تحتاج Fine-tuning؟
تحتاج لما:
– محتاج النموذج يلتزم بأسلوب كتابة محدد (لهجة شركتك، نبرة علامتك التجارية)
– عندك مهمة متكررة ومحددة جداً (تصنيف إيميلات، استخراج بيانات بتنسيق معين)
– البرومبت العادي مش كافي — جربت وما وصلتش للنتيجة المطلوبة
ما تحتاجش لما:
– البرومبت الكويس بيحقق نفس النتيجة (أرخص وأسرع)
– محتاج النموذج يعرف معلومات محدثة (استخدم RAG بدل كده)
– بياناتك قليلة (أقل من 50 مثال — البرومبت أفضل)
تحضير بيانات التدريب
البيانات لازم تكون بتنسيق محادثات — سؤال وإجابة:
{“messages”: [
{“role”: “system”, “content”: “أنت مساعد خدمة عملاء لشركة XYZ”},
{“role”: “user”, “content”: “عايز أرجع المنتج”},
{“role”: “assistant”, “content”: “أهلاً بيك! سياسة الإرجاع عندنا…”}
]}
كم مثال تحتاج: الحد الأدنى 10 أمثلة. 50-100 مثال بيدي نتائج جيدة. 500+ مثال بيدي نتائج ممتازة.
الجودة أهم من الكمية: 50 مثال ممتاز أحسن من 500 مثال عادي. كل مثال لازم يكون الإجابة المثالية اللي عايز النموذج يتعلمها.
Fine-tuning مع OpenAI
أسهل طريقة تبدأ — OpenAI بيقدم خدمة Fine-tuning لنموذج GPT-4o mini:
1. جهّز البيانات: ملف JSONL بتنسيق المحادثات
2. ارفع الملف: عبر الـ API أو لوحة التحكم
3. ابدأ التدريب: اختار النموذج الأساسي والإعدادات
4. استنى: التدريب بياخد من دقائق لساعات حسب حجم البيانات
5. استخدم: النموذج المخصص بيظهر في حسابك وتقدر تستخدمه عبر الـ API
التكلفة: من حوالي 3 دولار لكل مليون توكن تدريب — يعني 50 مثال ممكن يكلفوا أقل من دولار.
LoRA و QLoRA — للنماذج المفتوحة
لو عايز تدرب نموذج مفتوح المصدر (مجاني)، LoRA هي الطريقة الأكفأ:
إيه هو LoRA: بدل ما تدرب كل معاملات النموذج (مكلف)، بتدرب جزء صغير جداً (رخيص). النتائج قريبة جداً.
QLoRA: نسخة أكفأ — بتضغط النموذج وتدربه على كارت شاشة عادي (8-16 جيجا VRAM).
الأداة: Hugging Face PEFT — مكتبة مخصصة للضبط الدقيق الكفء.
pip install peft transformers trl
تقييم النتائج
بعد التدريب، لازم تتأكد إن النموذج اتحسن:
مجموعة اختبار: خصص 20% من بياناتك للاختبار — ما تدربش عليها.
مقارنة: قارن إجابات النموذج المدرب مع النموذج الأصلي على نفس الأسئلة.
اختبار بشري: خلّي شخص يقيّم الإجابات — ده أفضل مقياس.
تحذير: لو النموذج بقى أسوأ في مهام تانية (ده اسمه Catastrophic Forgetting)، قلل عدد خطوات التدريب.
جرّب بنفسك
الأسهل: روح على OpenAI Playground وجرب Fine-tuning مع 20-30 مثال من بيانات شغلك. شوف الفرق في جودة الإجابات. لو مبرمج: جرب QLoRA مع Llama 3.2 8B على Google Colab — في أمثلة جاهزة على Hugging Face.
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي