آخر المقالات

إيه هو الـ Quantization؟ | التكميم

باختصار الـ Quantization تقنية بتقلل حجم النموذج وتسرّع تشغيله عن طريق تبسيط الأرقام التي يخزّنها — مع خسارة بسيطة في الدقة. بالتفصيل النماذج الضخمة بتخزّن معاملاتها بدقة عالية (32-bit أو 16-bit). Quantization بتقلل الدقة دي (لـ 8-bit أو 4-bit) — زي ما لو حوّلت صورة من TIFF لـ JPEG. الصورة أصغر وتقدر تفتحها أسرع، مع فقدان طفيف في الجودة. عند …

أكمل القراءة »

إيه هو الـ LoRA؟ | التكيّف منخفض الرتبة

باختصار الـ LoRA طريقة ذكية للـ Fine-tuning بتعدّل جزء صغير من النموذج بدل كله — أسرع وأرخص وبنفس الجودة. بالتفصيل LoRA اختصار لـ Low-Rank Adaptation. بدل ما تعدّل كل المليارات من المعاملات في النموذج الضخم، LoRA بتضيف «طبقات صغيرة» جانبية بتعلّم الفرق المطلوب. تخيل إنك بدل ما تعيد رسم لوحة كاملة، بتضيف طبقة شفافة فوقها بتحتوي التعديلات الجديدة. النموذج الأصلي …

أكمل القراءة »

إيه هو الـ Transfer Learning؟ | نقل التعلّم

باختصار الـ Transfer Learning هو استخدام معرفة نموذج تعلّمها من مشكلة ما وتطبيقها على مشكلة مختلفة. بالتفصيل لو بتتعلم العزف على البيانو من قبل، وقررت تتعلم الأورج — مش هتبدأ من الصفر. مهاراتك في قراءة النوتة والإيقاع هتنتقل. ده بالظبط الـ Transfer Learning. في AI، النماذج بتتدرب على مهام ضخمة عامة (زي قراءة مليارات الجمل) وبعدين بيتم نقل المعرفة دي …

أكمل القراءة »