باختصار
الـ Chatbot Arena (ساحة مقارنة روبوتات المحادثة) — منصة بتخلّي الناس تقارن بين نموذجين في محادثة عمياء (من غير ما يعرفوا مين مين) وتختار الأفضل — من أعدل طرق تقييم النماذج اللغوية.
بالتفصيل
من غير تقييم ومقارنة، مش هنعرف إذا كان النموذج الجديد أحسن فعلاً من القديم.
من غير معايير تقييم موضوعية، كل شركة هتقول إن نموذجها الأحسن. الـ Chatbot Arena بيساعد المجتمع يقارن بين النماذج بشكل عادل ومبني على بيانات حقيقية. ده مهم للمطوّرين والشركات والباحثين على حد سواء — لأن اختيار النموذج الصح ممكن يفرق كتير في النتايج.
مثال عملي
لما OpenAI أو Google بتطلق نموذج جديد، أول حاجة الباحثين والمطوّرين بيبصوا عليها هي نتايجه على المعايير القياسية. الـ Chatbot Arena بيساعد كل الناس — من الشركات الكبيرة للمطوّرين المستقلين — إنهم يقرروا أي نموذج يستخدموا لمهمة معينة. من غير أدوات تقييم موضوعية، كان هيبقى كله كلام تسويقي.
مصطلحات مرتبطة
- اختبار الفهم اللغوي متعدّد المهام (MMLU)
- اختبار تقييم البرمجة (HumanEval)
- اختبار مسائل الرياضيات المدرسية (GSM8K)
- تحدّي الاستدلال من AI2 (ARC (AI2 Reasoning Challenge))
- تقييم إيلو (للذكاء الاصطناعي) (ELO Rating (AI))
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي