باختصار
الـ Inference هي المرحلة اللي بيستخدم فيها النموذج المدرّب (AI Model) عشان يطلّع نتائج أو إجابات على بيانات جديدة — يعني مرحلة التشغيل الفعلي بعد التدريب.
بالتفصيل
عشان تفهم الـ Inference، لازم الأول تفهم إن حياة أي AI Model بتتقسم لمرحلتين أساسيتين: التدريب (Training) والاستدلال (Inference). التدريب هو لما النموذج بيذاكر ويتعلّم من البيانات — وده بياخد وقت طويل وفلوس كتير. الـ Inference هو لما النموذج بيستخدم اللي اتعلّمه عشان يرد عليك أو يطلّع نتيجة.
فكّر فيها كده: التدريب هو السنين اللي الدكتور قضاها في كلية الطب بيذاكر ويتعلّم. الـ Inference هو لما بيكشف عليك في العيادة ويقولك التشخيص. الدكتور مش بيرجع يذاكر كتب الطب كلها كل ما مريض يدخل — هو بيستخدم اللي اتعلّمه قبل كده عشان ياخد قرار سريع. نفس الكلام بيحصل مع الـ AI Model.
كل مرة بتكتب سؤال في ChatGPT أو بتطلب من Google يترجملك جملة أو بتسأل Siri سؤال — أنت بتعمل Inference. النموذج بياخد المدخل بتاعك (Input)، بيعدّيه على الأنماط اللي اتعلّمها، وبيطلّعلك النتيجة (Output).
حاجة مهمة: سرعة الـ Inference بتفرق جدًا في تجربة المستخدم. لو النموذج بياخد 30 ثانية عشان يرد عليك، مش هتستحمل تستخدمه. عشان كده شركات زي NVIDIA بتطوّر شرائح (GPUs) متخصصة في إنها تعمل Inference بسرعة عالية جدًا. وده بقى سباق كبير — مين يقدر يشغّل النماذج الكبيرة بأسرع وقت وأقل تكلفة.
مثال عملي
لما بتصوّر صورة بموبايلك وبيقولك “فيه وش في الصورة — هل عايز تعمله tag؟”، ده Inference بيحصل على موبايلك. النموذج اللي متدرّب على التعرف على الوشوش بيشتغل في الخلفية، بياخد الصورة كمدخل، وبيطلّع نتيجة (فيه وش / مفيش وش) في أقل من ثانية. التدريب حصل في سيرفرات Google أو Apple على ملايين الصور، بس الـ Inference بيحصل عندك على الموبايل.
مصطلحات مرتبطة
- نموذج ذكاء اصطناعي (AI Model)
- بيانات التدريب (Training Data)
- المُعامِلات (Parameters)
- الشبكات العصبية (Neural Network)
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي