باختصار
الـ In-context Learning (التعلم من السياق) — قدرة النموذج اللغوي الكبير إنه يتعلم مهمة جديدة من أمثلة بتديهاله في الـ prompt من غير ما تعيد تدريبه، يعني بيفهم المطلوب من السياق.
بالتفصيل
تخيّل إنك بتعلّم روبوت يتكلم عربي وإنجليزي وصيني — ده بالظبط اللي بتعمله النماذج اللغوية.
معالجة اللغة الطبيعية من أقدم وأهم مجالات الذكاء الاصطناعي — والـ In-context Learning تقنية أساسية فيه. مع ظهور النماذج اللغوية الكبيرة (LLMs), المجال ده اتطور بشكل غير مسبوق. دلوقتي الآلات بتفهم السياق والنية والمشاعر ورا الكلام — مش بس الكلمات الحرفية.
مثال عملي
لما Google Translate بيترجملك مقال كامل من الإنجليزي للعربي في ثانية، أو لما ChatGPT بيفهم سؤالك ويرد بشكل منطقي — ورا الكواليس فيه تقنيات معالجة لغة زي الـ In-context Learning بتشتغل. من غير التقنيات دي، الآلات ما كانتش هتقدر تتعامل مع اللغة البشرية المعقّدة.
مصطلحات مرتبطة
- نموذج لغوي كبير (Large Language Model (LLM))
- المحوّل (ترانسفورمر) (Transformer)
- المحوّل التوليدي المدرّب مسبقًا (GPT (Generative Pre-trained Transformer))
- رمز (توكن) (Token)
- نافذة السياق (Context Window)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي