🔴 خبر عاجل
فريق الأمان في Microsoft اكتشف نوع جديد من الهجمات الإلكترونية اسمه “تسميم التوصيات” (AI Recommendation Poisoning)، وده بيستهدف أنظمة التوصيات المدعومة بالذكاء الاصطناعي ويخليها تروّج لمحتوى ضار أو خبيث من غير ما حد يحس.
التفاصيل
الهجوم بيشتغل بطريقة ذكية ومعقدة:
- التلاعب بالبيانات: المهاجمين بيضخوا بيانات مزيفة في أنظمة التدريب، فالخوارزمية بتتعلم تفضيلات غلط وبتبدأ توصّي بمحتوى ضار.
- استغلال حلقة التغذية الراجعة: كل ما مستخدم يتفاعل مع التوصية المسمومة، النظام بيتعامل مع ده كتأكيد إن التوصية صح — فبيروّجها أكتر.
- صعوبة الاكتشاف: لأن التغييرات بتحصل تدريجياً، الأنظمة التقليدية للمراقبة مش بتلاحظها.
Microsoft قالت إنها رصدت الهجوم ده في أنظمة توصيات حقيقية — من ضمنها منصات تجارة إلكترونية ومنصات محتوى. الشركة نزّلت تحديثات أمنية (Security Patches) وإرشادات للمطورين عشان يحموا أنظمتهم.
ليه ده مهم؟
أنظمة التوصيات بالذكاء الاصطناعي موجودة في كل حاجة تقريباً — من YouTube لـAmazon لتطبيقات الأخبار. لو النوع ده من الهجمات انتشر:
- ممكن ناس تشتري منتجات مضرة بناءً على توصيات “مسمومة”
- المعلومات المضللة (Misinformation) ممكن تنتشر بشكل أسرع من أي وقت فات
- الثقة في أنظمة الذكاء الاصطناعي ممكن تتأثر بشكل كبير
«مش كل ما يلمع دهب، ومش كل توصية من الخوارزمية في صالحك.»
مصطلحات مرتبطة
- Recommendation Poisoning (تسميم التوصيات): هجوم بيتلاعب بأنظمة التوصيات عشان تروّج لمحتوى ضار.
- Data Poisoning (تسميم البيانات): إدخال بيانات مزيفة في بيانات التدريب لتغيير سلوك نموذج الذكاء الاصطناعي.
- Feedback Loop (حلقة التغذية الراجعة): عملية بيأثر فيها مخرج النظام على مدخلاته، مما يعزز سلوك معين.
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي