آخر المقالات

إيه هو الـ RAG؟ | التوليد المعزّز بالاسترجاع

باختصار الـ RAG تقنية بتديك قدرة ربط النموذج اللغوي ببيانات خارجية حديثة — فيقدر يجاوب بدقة على أسئلة ما اتعلمهاش في تدريبه. بالتفصيل RAG اختصار لـ Retrieval-Augmented Generation. فكرته بسيطة: قبل ما النموذج يجاوب، بيدور في مصادر خارجية (وثائق، قاعدة بيانات، الإنترنت) وبيجيب المعلومة المناسبة، وبعدين بيولّد الإجابة بناءً عليها. النماذج اللغوية عندها تاريخ انتهاء (Knowledge Cutoff) — مش بتعرف …

أكمل القراءة »

إيه هو الـ Quantization؟ | التكميم

باختصار الـ Quantization تقنية بتقلل حجم النموذج وتسرّع تشغيله عن طريق تبسيط الأرقام التي يخزّنها — مع خسارة بسيطة في الدقة. بالتفصيل النماذج الضخمة بتخزّن معاملاتها بدقة عالية (32-bit أو 16-bit). Quantization بتقلل الدقة دي (لـ 8-bit أو 4-bit) — زي ما لو حوّلت صورة من TIFF لـ JPEG. الصورة أصغر وتقدر تفتحها أسرع، مع فقدان طفيف في الجودة. عند …

أكمل القراءة »

إيه هو الـ LoRA؟ | التكيّف منخفض الرتبة

باختصار الـ LoRA طريقة ذكية للـ Fine-tuning بتعدّل جزء صغير من النموذج بدل كله — أسرع وأرخص وبنفس الجودة. بالتفصيل LoRA اختصار لـ Low-Rank Adaptation. بدل ما تعدّل كل المليارات من المعاملات في النموذج الضخم، LoRA بتضيف «طبقات صغيرة» جانبية بتعلّم الفرق المطلوب. تخيل إنك بدل ما تعيد رسم لوحة كاملة، بتضيف طبقة شفافة فوقها بتحتوي التعديلات الجديدة. النموذج الأصلي …

أكمل القراءة »