في الرابع عشر من يوليو 2025، أعلنت شركة أنثروبيك الأمريكية – المطوِّرة للنموذج اللغوي “كلود” – عبر بيان رسمي على موقعها الإلكتروني توقيع عقد بقيمة 200 مليون دولار لمدة عامين مع مكتب التحول الرقمي والذكاء الاصطناعي (CDAO) التابع لوزارة الحرب الأمريكية. وقد صيغ الإعلان بلغة احتفالية واضحة، حيث وصفته الشركة بأنه “فصل جديد في التزام أنثروبيك بدعم الأمن القومي الأمريكي”، مؤكدة أن نماذجها مصممة لتكون “موثوقة وقابلة للتفسير وقابلة للتوجيه” في البيئات الحكومية الأكثر حساسية.

غير أن هذا الإعلان، الذي بدا في صيف 2025 تتويجاً مؤسسياً لمسار طويل من بناء هوية “الذكاء الاصطناعي المسؤول”، تحوّل في 28 فبراير 2026 إلى محور نقاش أخلاقي واسع النطاق. فقد أشارت تقارير إلى أن نموذج “كلود”، عبر نظام Maven Smart System التابع لشركة بالانتير والمستخدم ضمن شبكات عسكرية مُصنَّفة، استُخدم في إنتاج قوائم استهداف تتضمن إحداثيات GPS دقيقة لعدد كبير من الأهداف خلال فترة لا تتجاوز 24 ساعة، وذلك في سياق الضربات الأمريكية–الإسرائيلية على إيران.

وفي الوقت ذاته الذي رفضت فيه “أنثروبيك” توسيع بنود العقد، ما أدخلها في مواجهة مباشرة مع البنتاغون، شهدت متاجر التطبيقات ظاهرة لافتة؛ إذ ارتفعت عمليات إلغاء تثبيت “تشات جي بي تي” بنسبة 295%، بينما تصدّر نموذج “كلود” قائمة التطبيقات الأكثر تحميلاً في App Store الأمريكية للمرة الأولى في تاريخه.

ولا تمثل هذه المفارقة المركّبة مجرد أزمة علاقات عامة لشركة تقنية ناشئة؛ بل تكشف عن سؤال مؤجل منذ دخول الذكاء الاصطناعي إلى المجال العسكري: هل يمكن لمبدأ “المسؤولية” أن يصمد عندما تتعارض حدوده الأخلاقية المعلنة مع متطلبات الأمن القومي؟ وهل تشكل “أخلاقيات الذكاء الاصطناعي” التي تطرحها الشركات حدوداً مبدئية ثابتة، أم أنها قابلة لإعادة التفسير في ضوء السياق السياسي والعسكري؟

جذور الأزمة

لا يمكن فهم أزمة نموذج “كلود” في فبراير 2026 دون العودة إلى إعلان يوليو 2025، الذي احتوى في صياغاته الأولى على تناقضات كامنة لم تكن واضحة آنذاك. ويمكن رصد هذه التناقضات البنيوية في عدة مستويات أساسية:

1. لغة المبادئ في خدمة العقود

قدّم إعلان يوليو 2025 الشراكة العسكرية باعتبارها امتداداً طبيعياً لفلسفة الشركة الأخلاقية، مؤكداً أن “أقوى التقنيات تحمل أعظم المسؤوليات”. وبذلك جرى تأطير التعاون مع البنتاغون بوصفه تعبيراً عن القيم المؤسسية للشركة لا خروجاً عليها.

غير أن هذه اللغة نفسها جعلت الأزمة اللاحقة أكثر حدة؛ إذ إن الشركة التي بنت سمعتها على الشفافية والمسؤولية الأخلاقية كانت في الوقت ذاته منخرطة في بنية تشغيلية تعمل ضمن شبكات عسكرية مصنّفة لا تخضع لرقابة عامة.

2. الشفافية الانتقائية

أعلنت “أنثروبيك” في 2025 أن نموذج “كلود” أصبح جزءاً من سير العمل العسكري عبر منصة بالانتير، لكنها لم توضح طبيعة المهام التي يؤديها ولا حدود استخدامه الفعلية.

وقد ظهر أول تطبيق عملي لهذا الاندماج في 3 يناير 2026 حين استُخدم “كلود” ضمن عملية عسكرية أدت إلى اعتقال الرئيس الفنزويلي نيكولاس مادورو، في أول استخدام موثق لنموذج ذكاء اصطناعي متقدم في عملية عسكرية مصنّفة.

غير أن الحدث مر دون اهتمام واسع، لأن الرأي العام لم يكن على دراية بحجم الدور الذي أصبح النموذج يؤديه داخل الشبكات العسكرية. وهكذا نشأت فجوة إدراكية بين مفهوم “دعم القرار” الذي فهمه الجمهور، وبين مفهوم “توليد الاستهداف الآلي” الذي كُشف لاحقاً.

3. الخطوط الحمراء كأداة تفاوضية

رفضت “أنثروبيك” مطلب البنتاغون بمنح الجيش الأمريكي صلاحية استخدام “كلود” لجميع الأغراض القانونية دون قيود، واشترطت عدم استخدام النموذج في المراقبة الجماعية للمواطنين الأمريكيين أو في الأسلحة المستقلة بالكامل دون إشراف بشري.

لكن تصريح الرئيس التنفيذي للشركة داريو أمودي بأن الشركة “لم تعترض على عمليات عسكرية بعينها” كشف أن الخلاف لم يكن حول المبدأ العام لاستخدام الذكاء الاصطناعي في الحرب، بل حول صياغة شروط العقد. وبذلك تحوّلت “الخطوط الحمراء” من موقف أخلاقي مطلق إلى حدود تفاوضية قابلة للتعديل.

4. التسمية الرسمية كمرآة للواقع

في 5 مارس 2026 نشرت “أنثروبيك” بيان الأزمة تحت عنوان:
“Where things stand with the Department of War”.

لم يكن ذلك اختياراً بلاغياً؛ إذ إن الرسالة الرسمية التي تلقتها الشركة من البنتاغون في 4 مارس كانت موقّعة بالفعل باسم “وزارة الحرب”، وهي التسمية التي أعيد اعتمادها رسمياً منذ 5 سبتمبر 2025 بقرار تنفيذي وقعه الرئيس دونالد ترامب.

وتكشف هذه الواقعة عن فجوة رمزية عميقة: فالشركة التي تتحدث عن “الذكاء الاصطناعي المسؤول” تعمل في سياق مؤسسي يعيد تسمية نفسه صراحةً باعتباره وزارة للحرب.

معضلات رئيسية

تكشف الأزمة عن مجموعة من الإشكاليات البنيوية المرتبطة بعلاقة الذكاء الاصطناعي بالمجال العسكري.

1. معضلة الإشراف البشري

يوفر نظام Maven Smart System المدعوم من “كلود” قدرة تشغيلية تعادل عمل ألفي موظف لوحدة مدفعية واحدة يديرها فريق مكوّن من 20 شخصاً فقط.

وقد وصف الباحث بول شار من مركز الأمن الأمريكي الجديد هذه الظاهرة بقوله إن الذكاء الاصطناعي يسمح للجيش “ببناء حزم الاستهداف بسرعة الآلة لا بسرعة الإنسان”.

وهنا تبرز المعضلة الفلسفية: إذا كانت الخوارزميات تنتج التوصيات العسكرية بسرعة تفوق قدرة الإنسان على المعالجة الإدراكية، فهل يظل الإشراف البشري إشرافاً حقيقياً أم يتحول إلى مجرد إجراء شكلي يضفي الشرعية على قرار اتخذته الخوارزمية مسبقاً؟

2. التصنيف الأمني كأداة ضغط

عقب الخلاف مع الشركة، صنّف البنتاغون “أنثروبيك” باعتبارها “خطراً على سلسلة التوريد الأمني القومي”، وهو تصنيف كان يُستخدم تقليدياً ضد الشركات الصينية أو الروسية.

غير أن السياق السياسي كشف أبعاداً أخرى؛ فقد كتب الرئيس ترامب على منصة Truth Social أن الولايات المتحدة “لن تسمح لشركة يسارية متطرفة بأن تملي على الجيش كيف يخوض الحروب”.

لكن بيان الرئيس التنفيذي للشركة أوضح أن هذا التصنيف لا يقيّد استخدام النموذج إلا في العقود المرتبطة مباشرة بوزارة الحرب، ما يشير إلى أن القرار كان ذا طابع تفاوضي وسياسي أكثر منه تقييماً أمنياً موضوعياً.

3. التصويت الأخلاقي للمستخدمين

أظهرت بيانات متاجر التطبيقات ظاهرة لافتة يوم 28 فبراير 2026:

  • زيادة مراجعات النجمة الواحدة لتطبيق ChatGPT بنسبة 775%
  • تصدر Claude قائمة التطبيقات الأكثر تحميلاً
  • انضمام أكثر من 1.5 مليون مستخدم إلى حملة مقاطعة بعنوان QuitGPT

وقد امتدت الظاهرة إلى المجال الثقافي حين أعلنت المغنية كيتي بيري اشتراكها في “كلود”.

لكن المفارقة أن النموذج نفسه كان يعمل في الوقت ذاته داخل شبكات عسكرية مصنفة. وهذا يكشف أن المواقف الأخلاقية للمستخدمين تُبنى غالباً على الخطاب العلني لا على العمليات السرية التي تبقى محجوبة بحكم القانون.

4. اندماج وادي السيليكون في المجمع العسكري

تعكس الأزمة أيضاً تحولاً أوسع يتمثل في اندماج شركات وادي السيليكون مع المنظومة العسكرية الأمريكية. فقد أعلن قادة الشركات التقنية في عشاء بالبيت الأبيض عام 2025 عن استثمارات في البنية التحتية للذكاء الاصطناعي تتجاوز 1.2 تريليون دولار.

ويجري هذا الاندماج وفق ما يمكن تسميته “التخصص المرن”؛ أي تطوير نماذج متخصصة لكل قطاع استراتيجي بدلاً من نموذج عام واحد. وفي هذا السياق ظهر “كلود” كنموذج يجمع بين الهوية العامة والقدرة التشغيلية في البيئات العسكرية المصنّفة.

وقد أكد بيان الشركة في مارس 2026 استعدادها لمواصلة دعم وزارة الحرب بنماذجها حتى دون مقابل تجاري خلال فترة الانتقال، مشيراً إلى أن الشركة “تملك من القواسم المشتركة مع وزارة الحرب أكثر مما يفصلها عنها”.

ويكشف هذا التصريح أن الخلاف لم يكن حول مبدأ الاستخدام العسكري بقدر ما كان حول شروط العقد وآليات التحكم في الاستخدام.

خاتمة

لا تمثل أزمة نموذج “كلود” مع البنتاغون مجرد نزاع تعاقدي بين شركة تقنية ومؤسسة حكومية، ولا مجرد جدل أخلاقي عابر في الفضاء الرقمي؛ بل تعكس تحوّلاً تاريخياً يتمثل في دخول الذكاء الاصطناعي إلى قلب القرار العسكري.

وللمرة الأولى، أصبح ملايين المستخدمين يعبّرون عن مواقفهم الأخلاقية من هذه المعضلة عبر قراراتهم اليومية باستخدام التطبيقات، في قضية كانت تقليدياً حكراً على الأكاديميين وصنّاع القرار.

لكن السؤال الأعمق يبقى معلقاً:

إذا كانت خوارزميات الاستهداف تعمل بسرعة الآلة لا بسرعة الإنسان، فهل يظل مفهوم “الذكاء الاصطناعي المسؤول” قابلاً للتطبيق حين تصبح الأداة العسكرية هي النموذج اللغوي ذاته؟