إيه هو الـ Backpropagation؟ | الانتشار العكسي

باختصار

الـ Backpropagation هي خوارزمية أساسية في تدريب الشبكات العصبية (Neural Networks)، بتحسب الخطأ (Error) في المخرجات وترجعه للخلف عبر الطبقات عشان تعدّل الأوزان (Weights) وتحسّن أداء النموذج.

بالتفصيل

تخيّل إنك بتلعب لعبة رمي السهام على التارجت. رميت السهم ولقيته راح فوق وشمال. دلوقتي عايز تعرف إيه اللي غلط عشان تصلحه في الرمية الجاية. هل المشكلة في زاوية إيدك؟ ولا في القوة؟ ولا في التوقيت؟ بتحلّل الخطأ وترجع بيه لكل عنصر من عناصر الرمية عشان تعرف إيه اللي محتاج يتعدّل. الـ Backpropagation بتعمل نفس الحاجة بالظبط بس مع الشبكة العصبية.

الشبكة العصبية فيها طبقات كتير من الخلايا العصبية (Neurons)، وكل اتصال بين خليتين ليه وزن (Weight). لما الشبكة بتطلع نتيجة غلط، الـ Backpropagation بتحسب الفرق بين النتيجة الفعلية والنتيجة المطلوبة — ده اسمه دالة الخسارة (Loss Function). بعد كده بترجع بالخطأ ده للخلف طبقة طبقة، وبتحدد كل وزن ساهم بقد إيه في الخطأ ده.

العملية بتستخدم مفهوم رياضي اسمه الـ Gradient (التدرّج) — يعني بتحسب في أي اتجاه المفروض تعدّل كل وزن عشان الخطأ يقل. بعد ما تحسب التدرّجات لكل الأوزان، بتعدّلهم خطوة صغيرة في الاتجاه الصح. العملية دي بتتكرر آلاف أو حتى ملايين المرات لحد ما الشبكة تتعلّم وتبدأ تطلع نتايج دقيقة.

من غير الـ Backpropagation، تدريب الشبكات العصبية العميقة (Deep Neural Networks) كان هيكون شبه مستحيل. هي الخوارزمية اللي خلّت ثورة الـ Deep Learning ممكنة، ولحد النهارده بتتستخدم في تدريب كل نماذج الـ AI الكبيرة.

مثال عملي

لما بتستخدم Google Photos وبيتعرّف على وش صاحبك في الصور، الشبكة العصبية اللي ورا النظام ده اتدرّبت باستخدام الـ Backpropagation. في البداية كانت بتغلط كتير وتخلط بين الوشوش. بس مع كل غلطة، الـ Backpropagation كانت بترجع وتعدّل الأوزان — “الخلية دي اللي بتتعرّف على شكل الأنف محتاجة تتعدّل، واللي بتتعرّف على العيون كويسة”. بعد ملايين التعديلات، النظام بقى يتعرّف على الوشوش بدقة مذهلة.

مصطلحات مرتبطة

شاهد أيضاً

إيه هو الـ TruthfulQA؟ | اختبار صدق الإجابات

باختصار الـ TruthfulQA (اختبار صدق الإجابات) — اختبار بيقيس مدى صدق إجابات النموذج — بيسأل …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *