باختصار
المحوّل (Transformer) هو البنية الأساسية (Architecture) اللي بُنيت عليها كل نماذج الذكاء الاصطناعي الحديثة — من GPT لـ Gemini لـ Claude.
بالتفصيل
تخيل إنك في مكتبة ضخمة وعايز تلاقي معلومة معينة. الطريقة القديمة: تقرأ كتاب كتاب بالترتيب لحد ما تلاقيها. الطريقة الجديدة (المحوّل): تبص على كل الكتب في نفس الوقت وتربط المعلومات ببعضها.
النقلة الكبيرة اللي عملها Transformer هي آلية الانتباه (Attention Mechanism). الفكرة بسيطة: لما النموذج بيقرأ جملة، بيركز على الكلمات المهمة أكتر من الكلمات العادية.
مثال: في جملة «القطة اللي كانت قاعدة على الكرسي نطّت»، النموذج بيفهم إن «نطّت» مرتبطة بـ «القطة» مش بـ «الكرسي» — عن طريق آلية الانتباه.
تاريخ مختصر
في 2017، فريق من Google نشر ورقة بحثية بعنوان «الانتباه هو كل ما تحتاجه» (Attention Is All You Need). الورقة دي غيرت كل حاجة:
- قبل 2017: النماذج كانت بتعالج الكلمات واحدة واحدة بالترتيب (بطيء جدا).
- بعد 2017: Transformer بيعالج كل الكلمات في نفس الوقت (أسرع بمراحل).
مثال عملي
كل مرة بتستخدم فيها ChatGPT أو Claude أو ترجمة Google، أنت بتستخدم Transformer. حتى نماذج الصور زي Midjourney وDALL-E بتستخدم نسخ معدلة منه.
بدون Transformer، ما كانش حيبقى في ChatGPT ولا Gemini ولا أي حاجة من اللي بنشوفها اليوم.
مصطلحات مرتبطة
آلية الانتباه (Attention) • النموذج اللغوي الكبير (LLM) • الترميز (Tokenization) • BERT • GPT
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي