باختصار
الـ GPT (Generative Pre-trained Transformer) (المحوّل التوليدي المدرّب مسبقًا) — عائلة نماذج لغوية من OpenAI، بدأت بـ GPT-1 ووصلت لـ GPT-4o وo1 وo3. الاسم بقى مرادف للنماذج اللغوية الكبيرة عمومًا.
بالتفصيل
زي ما المترجم الشاطر بيفهم المعنى مش بس الكلمات — النماذج اللغوية بتحاول تعمل نفس الحاجة.
معالجة اللغة الطبيعية من أقدم وأهم مجالات الذكاء الاصطناعي — والـ GPT تقنية أساسية فيه. مع ظهور النماذج اللغوية الكبيرة (LLMs), المجال ده اتطور بشكل غير مسبوق. دلوقتي الآلات بتفهم السياق والنية والمشاعر ورا الكلام — مش بس الكلمات الحرفية.
مثال عملي
لما Google Translate بيترجملك مقال كامل من الإنجليزي للعربي في ثانية، أو لما ChatGPT بيفهم سؤالك ويرد بشكل منطقي — ورا الكواليس فيه تقنيات معالجة لغة زي الـ GPT بتشتغل. من غير التقنيات دي، الآلات ما كانتش هتقدر تتعامل مع اللغة البشرية المعقّدة.
مصطلحات مرتبطة
- نموذج لغوي كبير (Large Language Model (LLM))
- المحوّل (ترانسفورمر) (Transformer)
- رمز (توكن) (Token)
- نافذة السياق (Context Window)
- مُوجِّه (بروميت) (Prompt)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي