عندك PDF ضخم وعايز تسأل عنه أسئلة بدل ما تقراه كله؟ ده ممكن بتقنية RAG — وفي أدوات بتعمله بدون كود خالص. المستوى: مبتدئ | وقت القراءة: 8 دقائق ما ستتعلمه مفهوم RAG ببساطة أدوات No-Code لرفع PDF والتحدث معه إزاي تستخدم النتيجة بشكل عملي الخطوات الطريقة الأسهل: ارفع الـ PDF مباشرة في Claude أو ChatGPT Plus واسأل عنه. لو …
أكمل القراءة »أرشيف الوسم : llm
دليل المبتدئ لـ Prompt Engineering — كيف تكتب أوامر مثالية
الـ Prompt Engineering هو فن كتابة الأوامر بشكل صح عشان تحصل على أحسن نتيجة من نماذج الذكاء الاصطناعي. مهارة اتعلمها كل اللي بيستخدموا AI بجدية. المستوى: مبتدئ | وقت القراءة: 10 دقائق ما ستتعلمه مكونات الـ Prompt المثالي تقنيات Chain-of-Thought وFew-Shot أخطاء شائعة وإزاي تتجنبها الخطوات الـ Prompt المثالي فيه 4 عناصر: Role + Task + Context + Format. Role: …
أكمل القراءة »إيه هو الـ Federated Learning؟ | التعلّم الفيدرالي
باختصار الـ Federated Learning طريقة لتدريب النماذج على بيانات موزّعة في أجهزة مختلفة من غير ما البيانات تغادر الجهاز — للخصوصية الكاملة. بالتفصيل عادةً التدريب بيحتاج كل البيانات في مكان واحد (السيرفر). Federated Learning بيعكس المعادلة: النموذج بيتنزّل على كل جهاز، بيتدرب على البيانات المحلية، وبعدين التحديثات (مش البيانات) بتتجمع في السيرفر. يعني تليفونك ممكن يساعد في تدريب نموذج AI …
أكمل القراءة »إيه هي الـ Synthetic Data؟ | البيانات الاصطناعية
باختصار الـ Synthetic Data بيانات تولّدها نماذج AI بدل جمعها من العالم الحقيقي — حل ذكي لشُح البيانات وحماية الخصوصية. بالتفصيل تدريب نماذج AI محتاج ملايين أو مليارات نقطة بيانات. المشكلة: البيانات الحقيقية أحياناً شحيحة أو حساسة أو مكلفة التجميع. Synthetic Data الحل: تستخدم نموذج AI (أو محاكاة) لتوليد بيانات اصطناعية تشبه البيانات الحقيقية في خصائصها. مستشفى عنده 1000 حالة …
أكمل القراءة »إيه هو الـ Overfitting؟ | فرط التخصيص
باختصار الـ Overfitting لما النموذج يحفظ بيانات التدريب عن ظهر قلب بدل ما يتعلم القواعد العامة — فبيفشل مع بيانات جديدة. بالتفصيل تخيل طالب حفظ إجابات 10 امتحانات قديمة كلها حرفاً حرفاً. لما وقف في امتحان بأسئلة مختلفة شوية، فشل — لأنه ما فهمش المادة، بس حفظ. الـ Overfitting بالظبط كده مع النماذج. النموذج بيتعلم «ضوضاء» التدريب وتفاصيل غير مهمة …
أكمل القراءة »إيه هو الـ Distillation؟ | تقطير المعرفة
باختصار الـ Knowledge Distillation طريقة لتحويل نموذج ضخم وغالي التشغيل لنموذج أصغر وأسرع مع الاحتفاظ بمعظم ذكائه. بالتفصيل Knowledge Distillation أو «تقطير المعرفة» هو عملية بيكون فيها «نموذج مُعلّم» كبير يدرّب «نموذج طالب» أصغر. الفكرة مش بس إن الطالب يتقلّد إجابات المعلم الصح/غلط، لكن يتعلم كيفية تفكير المعلم — احتمالات كل إجابة وليس مجرد الإجابة النهائية. ده بيعطي الطالب معرفة …
أكمل القراءة »إيه هو الـ RLHF؟ | التعلّم المعزّز من التغذية البشرية
باختصار الـ RLHF طريقة تدريب بتستخدم تقييمات بشرية لتعليم النموذج يطلع إجابات أحسن وأأمن وأكثر توافقاً مع تفضيلات الإنسان. بالتفصيل RLHF اختصار لـ Reinforcement Learning from Human Feedback. الفكرة إن النموذج بيولّد ردود متعددة، وبشر حقيقيين بيختاروا الأحسن، والنموذج بيتعلم منهم. العملية لها ثلاث مراحل: أولاً السؤال والإجابة العادية، ثانياً تدريب «نموذج المكافأة» على اختيارات البشر، وأخيراً استخدام Reinforcement Learning …
أكمل القراءة »إيه هو الـ RAG؟ | التوليد المعزّز بالاسترجاع
باختصار الـ RAG تقنية بتديك قدرة ربط النموذج اللغوي ببيانات خارجية حديثة — فيقدر يجاوب بدقة على أسئلة ما اتعلمهاش في تدريبه. بالتفصيل RAG اختصار لـ Retrieval-Augmented Generation. فكرته بسيطة: قبل ما النموذج يجاوب، بيدور في مصادر خارجية (وثائق، قاعدة بيانات، الإنترنت) وبيجيب المعلومة المناسبة، وبعدين بيولّد الإجابة بناءً عليها. النماذج اللغوية عندها تاريخ انتهاء (Knowledge Cutoff) — مش بتعرف …
أكمل القراءة »إيه هو الـ Quantization؟ | التكميم
باختصار الـ Quantization تقنية بتقلل حجم النموذج وتسرّع تشغيله عن طريق تبسيط الأرقام التي يخزّنها — مع خسارة بسيطة في الدقة. بالتفصيل النماذج الضخمة بتخزّن معاملاتها بدقة عالية (32-bit أو 16-bit). Quantization بتقلل الدقة دي (لـ 8-bit أو 4-bit) — زي ما لو حوّلت صورة من TIFF لـ JPEG. الصورة أصغر وتقدر تفتحها أسرع، مع فقدان طفيف في الجودة. عند …
أكمل القراءة »إيه هو الـ LoRA؟ | التكيّف منخفض الرتبة
باختصار الـ LoRA طريقة ذكية للـ Fine-tuning بتعدّل جزء صغير من النموذج بدل كله — أسرع وأرخص وبنفس الجودة. بالتفصيل LoRA اختصار لـ Low-Rank Adaptation. بدل ما تعدّل كل المليارات من المعاملات في النموذج الضخم، LoRA بتضيف «طبقات صغيرة» جانبية بتعلّم الفرق المطلوب. تخيل إنك بدل ما تعيد رسم لوحة كاملة، بتضيف طبقة شفافة فوقها بتحتوي التعديلات الجديدة. النموذج الأصلي …
أكمل القراءة »
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي