باختصار
الـ BERT (بيرت) — نموذج لغوي من Google بيفهم النص عن طريق إنه يبص على الكلمات اللي قبل وبعد كل كلمة في نفس الوقت، وده خلاه ممتاز في مهام الفهم والتصنيف.
بالتفصيل
تخيّل إنك بتعلّم روبوت يتكلم عربي وإنجليزي وصيني — ده بالظبط اللي بتعمله النماذج اللغوية.
معالجة اللغة الطبيعية من أقدم وأهم مجالات الذكاء الاصطناعي — والـ BERT تقنية أساسية فيه. مع ظهور النماذج اللغوية الكبيرة (LLMs), المجال ده اتطور بشكل غير مسبوق. دلوقتي الآلات بتفهم السياق والنية والمشاعر ورا الكلام — مش بس الكلمات الحرفية.
مثال عملي
لما Google Translate بيترجملك مقال كامل من الإنجليزي للعربي في ثانية، أو لما ChatGPT بيفهم سؤالك ويرد بشكل منطقي — ورا الكواليس فيه تقنيات معالجة لغة زي الـ BERT بتشتغل. من غير التقنيات دي، الآلات ما كانتش هتقدر تتعامل مع اللغة البشرية المعقّدة.
مصطلحات مرتبطة
- نموذج لغوي كبير (Large Language Model (LLM))
- المحوّل (ترانسفورمر) (Transformer)
- المحوّل التوليدي المدرّب مسبقًا (GPT (Generative Pre-trained Transformer))
- رمز (توكن) (Token)
- نافذة السياق (Context Window)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي