🔴 خبر عاجل
وزارة الدفاع الأمريكية (البنتاغون) هدّدت بإلغاء عقدها مع شركة Anthropic بعد ما الشركة رفضت إن نماذج الذكاء الاصطناعي بتاعتها تتستخدم في تطبيقات المراقبة الجماعية. القرار ده بيكشف التوتر المتصاعد بين مبادئ سلامة الذكاء الاصطناعي ومتطلبات العقود الحكومية.
التفاصيل
Anthropic عندها عقد قائم مع وزارة الدفاع الأمريكية لتقديم خدمات ذكاء اصطناعي، لكن الشركة حطّت خطوط حمراء واضحة:
- الشركة وافقت على استخدامات زي تحليل الوثائق والتلخيص والمهام الإدارية
- لكنها رفضت بشكل قاطع إن تقنياتها تتستخدم في أنظمة المراقبة الجماعية أو التعرف على الوجوه
- البنتاغون اعتبر الرفض ده إخلال بشروط التعاون واقترح مراجعة العقد بالكامل
- مصادر من داخل Anthropic أكدت إن الشركة مستعدة تخسر العقد بدل ما تتنازل عن مبادئها
ليه ده مهم؟
الموقف ده بيطرح سؤال جوهري: هل شركات الذكاء الاصطناعي تقدر تشتغل مع الجيش وفي نفس الوقت تحافظ على مبادئها الأخلاقية؟ Anthropic — اللي اتأسست أصلاً على فكرة سلامة الذكاء الاصطناعي — بتحاول تثبت إن فيه حدود مينفعش تتخطاها حتى لو الثمن كان خسارة عقود بملايين الدولارات. القرار ده ممكن يكون سابقة مهمة لبقية الشركات في الصناعة.
«مَن باع ضميره بالمال، خسر الاتنين في الآخر»
مصطلحات مرتبطة
- AI Safety (سلامة الذكاء الاصطناعي): مجال بحثي بيركّز على ضمان إن أنظمة الذكاء الاصطناعي تشتغل بشكل آمن ومتوافق مع القيم الإنسانية
- Surveillance AI (ذكاء اصطناعي للمراقبة): استخدام تقنيات الذكاء الاصطناعي في مراقبة الأفراد والجماعات
- Responsible AI (ذكاء اصطناعي مسؤول): إطار عمل بيضمن إن تطوير واستخدام الذكاء الاصطناعي يتم بشكل أخلاقي وشفاف
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي