باختصار
الـ Weight هو قيمة رقمية داخل الـ Neural Network (الشبكة العصبية) بتتعدّل أثناء التدريب. الأوزان هي اللي بتحدد قد إيه كل إشارة مهمة، وضبطها هو جوهر عملية التعلّم.
بالتفصيل
تخيّل إنك بتعمل وصفة أكل وعندك مكونات مختلفة: ملح، سكر، فلفل، كمون. كل مكوّن ليه “وزن” أو كمية معينة في الوصفة — شوية ملح كتير والأكل يبوظ، شوية سكر قليلة والطعم ناقص. الشيف الشاطر هو اللي بيعرف الكمية المظبوطة من كل مكوّن. الـ Weights في الـ Neural Network بالظبط نفس الفكرة — هي الأرقام اللي بتحدد قد إيه كل مدخل مهم في القرار النهائي.
في الـ Neural Network، كل وصلة بين Neuron وNeuron تاني عليها Weight. لو الـ Weight كبير، معناه إن الإشارة دي مهمة ولازم الـ Neuron اللي بعده ياخدها في الاعتبار بجد. لو الـ Weight صغير أو قريب من صفر، معناه إن الإشارة دي مش مهمة أوي ويقدر يتجاهلها.
الجميل في الموضوع إن الـ Weights مش بيحددها حد يدوي. في الأول، بتبدأ بأرقام عشوائية — يعني النموذج مش فاهم حاجة. وبعدين أثناء التدريب (Training)، النموذج بيشوف أمثلة كتير وبيعدّل الـ Weights تدريجيًا عن طريق عملية اسمها Backpropagation. كل ما يغلط، بيعدّل الأوزان شوية عشان المرة الجاية يغلط أقل. ومع الوقت والتدريب الكتير، الأوزان بتوصل لقيم كويسة بتخلّي النموذج يشتغل صح.
لما بتسمع إن نموذج زي GPT-4 فيه “تريليونات Parameters“، الأغلبية العظمى من الـ Parameters دي هي Weights. يعني تريليونات أرقام كل واحد فيهم اتظبط بعناية أثناء التدريب. وده اللي بيخلّي النموذج “ذكي” — مش كود برمجي تقليدي، بل أوزان اتعلّمت من البيانات.
مثال عملي
تخيّل نموذج بيحاول يتعرّف على الصور — عايز يفرّق بين صورة قطة وصورة كلب. في البداية الأوزان عشوائية، فالنموذج بيخمّن غلط كتير. بس كل ما يشوف صورة قطة ويقول “كلب”، الـ Backpropagation بتعدّل الأوزان — بتزوّد الـ Weights المرتبطة بخصائص القطط (الودان المدبّبة، العيون الكبيرة) وبتقلّل الأوزان المرتبطة بخصائص الكلاب. بعد ما يشوف آلاف الصور، الأوزان بتبقى مظبوطة وبيعرف يفرّق بدقة عالية. نفس المبدأ بيحصل في ChatGPT بس مع كلمات بدل صور.
مصطلحات مرتبطة
- الشبكة العصبية (Neural Network)
- المعاملات (Parameters)
- الانتشار العكسي (Backpropagation)
- دالة التنشيط (Activation Function)
- الانحياز (Bias)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي