البنتاغون يهدد بقطع عقد Anthropic بسبب رفضها استخدام الذكاء الاصطناعي في المراقبة

🔴 خبر عاجل

وزارة الدفاع الأمريكية (البنتاغون) هدّدت بإلغاء عقدها مع شركة Anthropic بعد ما الشركة رفضت إن نماذج الذكاء الاصطناعي بتاعتها تتستخدم في تطبيقات المراقبة الجماعية. القرار ده بيكشف التوتر المتصاعد بين مبادئ سلامة الذكاء الاصطناعي ومتطلبات العقود الحكومية.

التفاصيل

Anthropic عندها عقد قائم مع وزارة الدفاع الأمريكية لتقديم خدمات ذكاء اصطناعي، لكن الشركة حطّت خطوط حمراء واضحة:

  • الشركة وافقت على استخدامات زي تحليل الوثائق والتلخيص والمهام الإدارية
  • لكنها رفضت بشكل قاطع إن تقنياتها تتستخدم في أنظمة المراقبة الجماعية أو التعرف على الوجوه
  • البنتاغون اعتبر الرفض ده إخلال بشروط التعاون واقترح مراجعة العقد بالكامل
  • مصادر من داخل Anthropic أكدت إن الشركة مستعدة تخسر العقد بدل ما تتنازل عن مبادئها

ليه ده مهم؟

الموقف ده بيطرح سؤال جوهري: هل شركات الذكاء الاصطناعي تقدر تشتغل مع الجيش وفي نفس الوقت تحافظ على مبادئها الأخلاقية؟ Anthropic — اللي اتأسست أصلاً على فكرة سلامة الذكاء الاصطناعي — بتحاول تثبت إن فيه حدود مينفعش تتخطاها حتى لو الثمن كان خسارة عقود بملايين الدولارات. القرار ده ممكن يكون سابقة مهمة لبقية الشركات في الصناعة.

«مَن باع ضميره بالمال، خسر الاتنين في الآخر»

مصطلحات مرتبطة

  • AI Safety (سلامة الذكاء الاصطناعي): مجال بحثي بيركّز على ضمان إن أنظمة الذكاء الاصطناعي تشتغل بشكل آمن ومتوافق مع القيم الإنسانية
  • Surveillance AI (ذكاء اصطناعي للمراقبة): استخدام تقنيات الذكاء الاصطناعي في مراقبة الأفراد والجماعات
  • Responsible AI (ذكاء اصطناعي مسؤول): إطار عمل بيضمن إن تطوير واستخدام الذكاء الاصطناعي يتم بشكل أخلاقي وشفاف

شاهد أيضاً

سامسونج تكشف عن Galaxy S26 بمعالج Snapdragon 8 Elite Gen 5 وذكاء اصطناعي محلي متقدم

سامسونج تعرض في MWC 2026 سلسلة Galaxy S26 بمعالج جيل خامس وشاشة خصوصية ذكية وقدرات AI تعمل محلياً على الجهاز.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *