🔴 خبر عاجل
الملخص: في غضون ساعات من حظر Anthropic، وقّعت OpenAI عقداً مع البنتاغون للوصول إلى الشبكات المصنّفة سرية. القرار أثار موجة انتقادات واسعة — حتى من داخل OpenAI نفسها.
ما الذي وقّعته OpenAI؟
وقّعت OpenAI اتفاقية مع وزارة الدفاع الأمريكية تتيح استخدام نماذجها — بما فيها GPT-4o والإصدارات الأحدث — على الشبكات الحكومية المصنّفة (Classified Networks). العقد يشمل أيضاً تكاملاً مع منظومات تحليل الاستخبارات.
مصادر متعددة أكّدت أن التوقيت — أي التسريع بعد طرد Anthropic مباشرةً — لم يكن صدفة.
ردود الفعل الداخلية
أكثر من 300 موظف من Google وOpenAI وقّعوا رسالة مفتوحة تطالب قياداتهم بـ«دعم خطوط Anthropic الحمراء». الرسالة تقول بوضوح: «لا ينبغي أن تُستخدم نماذجنا في قرارات القتل الآلي أو المراقبة الجماعية».
داخل OpenAI تحديداً، نشر عدد من الموظفين مقالات وتغريدات تعبّر عن قلقهم من الاتجاه الذي تسلكه الشركة.
موقف OpenAI الرسمي
أكّد المتحدث الرسمي لـOpenAI أن العقد يلتزم بسياسات الاستخدام المقبول، وأنه لا يتضمن استخداماً مباشراً في أنظمة أسلحة مستقلة. لكن التفاصيل التقنية للعقد لم تُكشف للعموم.
المشهد الأوسع
هذا الحادث يكشف انقساماً حقيقياً في صناعة AI:
- فريق يؤمن بأن التعاون مع الجيش ضروري وحتمي
- فريق يرى أن هناك خطوطاً حمراء لا ينبغي تجاوزها بأي ثمن
وAnthropic اختارت الفريق الثاني — ودفعت الثمن.
الاستخدام العسكري للذكاء الاصطناعي أصبح أحد أكثر الموضوعات إلحاحاً في 2026. ما يحدث الآن في واشنطن سيحدد كيف تُستخدم نماذج AI في الصراعات المسلحة للعقود القادمة. القرارات تُتخذ الآن، والمجتمع المدني بالكاد يشارك في هذا النقاش.
المصدر: NBC News — 27 فبراير 2026
قرمصيص للأخبار أخبار الذكاء الاصطناعي بالعربي