أخبار AI

كيف تستخدم ChatGPT بشكل احترافي — 10 نصائح لا تعرفها

معظم الناس بتستخدم ChatGPT بشكل عشوائي وبتاخد نتائج عشوائية. في الشرح ده هنتعلم 10 نصائح عملية تخلّيك تستخرج أحسن نتيجة من كل محادثة. المستوى: مبتدئ  |  وقت القراءة: 8 دقائق ما ستتعلمه كيف تكتب أوامر (Prompts) فعّالة إزاي تستخدم Custom Instructions نصائح لكل استخدام: كتابة، بحث، كود، ترجمة الخطوات ابدأ بالسياق: قول للـ AI مين أنت وإيه الهدف قبل السؤال …

أكمل القراءة »

إيه هو الـ Federated Learning؟ | التعلّم الفيدرالي

باختصار الـ Federated Learning طريقة لتدريب النماذج على بيانات موزّعة في أجهزة مختلفة من غير ما البيانات تغادر الجهاز — للخصوصية الكاملة. بالتفصيل عادةً التدريب بيحتاج كل البيانات في مكان واحد (السيرفر). Federated Learning بيعكس المعادلة: النموذج بيتنزّل على كل جهاز، بيتدرب على البيانات المحلية، وبعدين التحديثات (مش البيانات) بتتجمع في السيرفر. يعني تليفونك ممكن يساعد في تدريب نموذج AI …

أكمل القراءة »

إيه هي الـ Synthetic Data؟ | البيانات الاصطناعية

باختصار الـ Synthetic Data بيانات تولّدها نماذج AI بدل جمعها من العالم الحقيقي — حل ذكي لشُح البيانات وحماية الخصوصية. بالتفصيل تدريب نماذج AI محتاج ملايين أو مليارات نقطة بيانات. المشكلة: البيانات الحقيقية أحياناً شحيحة أو حساسة أو مكلفة التجميع. Synthetic Data الحل: تستخدم نموذج AI (أو محاكاة) لتوليد بيانات اصطناعية تشبه البيانات الحقيقية في خصائصها. مستشفى عنده 1000 حالة …

أكمل القراءة »

إيه هو الـ Overfitting؟ | فرط التخصيص

باختصار الـ Overfitting لما النموذج يحفظ بيانات التدريب عن ظهر قلب بدل ما يتعلم القواعد العامة — فبيفشل مع بيانات جديدة. بالتفصيل تخيل طالب حفظ إجابات 10 امتحانات قديمة كلها حرفاً حرفاً. لما وقف في امتحان بأسئلة مختلفة شوية، فشل — لأنه ما فهمش المادة، بس حفظ. الـ Overfitting بالظبط كده مع النماذج. النموذج بيتعلم «ضوضاء» التدريب وتفاصيل غير مهمة …

أكمل القراءة »

إيه هو الـ Distillation؟ | تقطير المعرفة

باختصار الـ Knowledge Distillation طريقة لتحويل نموذج ضخم وغالي التشغيل لنموذج أصغر وأسرع مع الاحتفاظ بمعظم ذكائه. بالتفصيل Knowledge Distillation أو «تقطير المعرفة» هو عملية بيكون فيها «نموذج مُعلّم» كبير يدرّب «نموذج طالب» أصغر. الفكرة مش بس إن الطالب يتقلّد إجابات المعلم الصح/غلط، لكن يتعلم كيفية تفكير المعلم — احتمالات كل إجابة وليس مجرد الإجابة النهائية. ده بيعطي الطالب معرفة …

أكمل القراءة »

إيه هو الـ RLHF؟ | التعلّم المعزّز من التغذية البشرية

باختصار الـ RLHF طريقة تدريب بتستخدم تقييمات بشرية لتعليم النموذج يطلع إجابات أحسن وأأمن وأكثر توافقاً مع تفضيلات الإنسان. بالتفصيل RLHF اختصار لـ Reinforcement Learning from Human Feedback. الفكرة إن النموذج بيولّد ردود متعددة، وبشر حقيقيين بيختاروا الأحسن، والنموذج بيتعلم منهم. العملية لها ثلاث مراحل: أولاً السؤال والإجابة العادية، ثانياً تدريب «نموذج المكافأة» على اختيارات البشر، وأخيراً استخدام Reinforcement Learning …

أكمل القراءة »

إيه هو الـ RAG؟ | التوليد المعزّز بالاسترجاع

باختصار الـ RAG تقنية بتديك قدرة ربط النموذج اللغوي ببيانات خارجية حديثة — فيقدر يجاوب بدقة على أسئلة ما اتعلمهاش في تدريبه. بالتفصيل RAG اختصار لـ Retrieval-Augmented Generation. فكرته بسيطة: قبل ما النموذج يجاوب، بيدور في مصادر خارجية (وثائق، قاعدة بيانات، الإنترنت) وبيجيب المعلومة المناسبة، وبعدين بيولّد الإجابة بناءً عليها. النماذج اللغوية عندها تاريخ انتهاء (Knowledge Cutoff) — مش بتعرف …

أكمل القراءة »

إيه هو الـ Quantization؟ | التكميم

باختصار الـ Quantization تقنية بتقلل حجم النموذج وتسرّع تشغيله عن طريق تبسيط الأرقام التي يخزّنها — مع خسارة بسيطة في الدقة. بالتفصيل النماذج الضخمة بتخزّن معاملاتها بدقة عالية (32-bit أو 16-bit). Quantization بتقلل الدقة دي (لـ 8-bit أو 4-bit) — زي ما لو حوّلت صورة من TIFF لـ JPEG. الصورة أصغر وتقدر تفتحها أسرع، مع فقدان طفيف في الجودة. عند …

أكمل القراءة »

إيه هو الـ LoRA؟ | التكيّف منخفض الرتبة

باختصار الـ LoRA طريقة ذكية للـ Fine-tuning بتعدّل جزء صغير من النموذج بدل كله — أسرع وأرخص وبنفس الجودة. بالتفصيل LoRA اختصار لـ Low-Rank Adaptation. بدل ما تعدّل كل المليارات من المعاملات في النموذج الضخم، LoRA بتضيف «طبقات صغيرة» جانبية بتعلّم الفرق المطلوب. تخيل إنك بدل ما تعيد رسم لوحة كاملة، بتضيف طبقة شفافة فوقها بتحتوي التعديلات الجديدة. النموذج الأصلي …

أكمل القراءة »

إيه هو الـ Transfer Learning؟ | نقل التعلّم

باختصار الـ Transfer Learning هو استخدام معرفة نموذج تعلّمها من مشكلة ما وتطبيقها على مشكلة مختلفة. بالتفصيل لو بتتعلم العزف على البيانو من قبل، وقررت تتعلم الأورج — مش هتبدأ من الصفر. مهاراتك في قراءة النوتة والإيقاع هتنتقل. ده بالظبط الـ Transfer Learning. في AI، النماذج بتتدرب على مهام ضخمة عامة (زي قراءة مليارات الجمل) وبعدين بيتم نقل المعرفة دي …

أكمل القراءة »