أنثروبيك تقاضي الحكومة الأمريكية: داخل المواجهة غير المسبوقة لسلامة الذكاء الاصطناعي التي قد تعيد تشكيل صناعة التكنولوجيا

March 10, 2026
أنثروبيك
5 min

ملخص الأخبار

سان فرانسيسكو، كاليفورنيا — الاثنين، 9 مارس 2026 (بتوقيت شرق الولايات المتحدة)

رفعت شركة Anthropic، إحدى الشركات الرائدة عالميًا في مجال الذكاء الاصطناعي وصانعة نموذج Claude AI، دعويين قضائيتين فيدراليتين يوم الاثنين ضد إدارة ترامب ووزارة الدفاع وأكثر من اثنتي عشرة وكالة فيدرالية أخرى. وتطعن الإجراءات القانونية في قرار الحكومة غير المسبوق بتصنيف شركة الذكاء الاصطناعي التي تتخذ من سان فرانسيسكو مقراً لها على أنها "خطر في سلسلة التوريد على الأمن القومي" — وهو تصنيف كان مخصصًا تاريخيًا للشركات المرتبطة بخصوم أجانب.

نقطة الانهيار: مواجهة استمرت أسبوعين

تصاعد الصراع بين Anthropic والبنتاغون بسرعة خلال الأسبوعين الماضيين. وفي قلب النزاع يكمن رفض الرئيس التنفيذي داريو أموداي السماح باستخدام نموذج Claude AI الخاص بالشركة دون قيود — خاصة بالنسبة لأنظمة الأسلحة المستقلة بالكامل والمراقبة المحلية الجماعية للمواطنين الأمريكيين. اجتمع أموداي مع وزير الدفاع بيت هيغسيث في فبراير على أمل التوصل إلى اتفاق، لكن المفاوضات انهارت علنًا.

في 27 فبراير، نشر الرئيس ترامب على وسائل التواصل الاجتماعي توجيهًا لجميع الوكالات الفيدرالية بـ "وقف استخدام تقنية Anthropic على الفور"، واصفًا الشركة بأنها "شركة يسارية متطرفة ومستيقظة". في نفس اليوم، أعلن الوزير هيغسيث أنه سيتم رسميًا تصنيف Anthropic كخطر في سلسلة التوريد، وأعلن كذلك أنه "لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي إجراء أي نشاط تجاري مع Anthropic".

تم تأكيد التصنيف الرسمي رسميًا في 4 مارس 2026 (بتوقيت شرق الولايات المتحدة)، مما يجعل Anthropic أول شركة أمريكية في التاريخ تحصل على هذا التصنيف.

الدعاوى القضائية: جبهتان، رسالة واحدة

رفعت Anthropic دعويين قضائيتين منفصلتين — إحداهما في المحكمة الجزئية الأمريكية للمنطقة الشمالية من كاليفورنيا، والأخرى في محكمة الاستئناف الأمريكية للدائرة في واشنطن العاصمة — تستهدف كل منهما جوانب مختلفة من تصرفات الحكومة. يصف الشكوى المكونة من 48 صفحة تحركات الإدارة بأنها "غير مسبوقة وغير قانونية".

تقدم الطعون ثلاثة حجج قانونية مركزية. أولاً، أن الحكومة الفيدرالية انتقمت من Anthropic لممارستها الحق في حرية التعبير المحمي بموجب التعديل الأول بشأن مسائل ذات أهمية عامة — على وجه التحديد، مواقفها المعلنة بشأن سلامة الذكاء الاصطناعي. ثانيًا، أن الرئيس ترامب تجاوز سلطته في إصدار أمر لجميع الوكالات الفيدرالية بالتوقف عن استخدام تقنية Anthropic. وثالثًا، أنه تم حرمان Anthropic من الإجراءات القانونية الواجبة الكافية قبل إخضاعها لتصنيف خطر سلسلة التوريد.

تنص الدعوى القضائية على أن "الدستور لا يسمح للحكومة باستخدام سلطتها الهائلة لمعاقبة شركة على خطابها المحمي". "تتجه Anthropic إلى السلطة القضائية كملاذ أخير لإثبات حقوقها ووقف حملة الانتقام غير القانونية للسلطة التنفيذية."

المخاطر المالية

بدأت العواقب الاقتصادية للقائمة السوداء تُشعر بها بالفعل. حذرت Anthropic في دعواها من أن "العقود مع الحكومة الفيدرالية يتم إلغاؤها بالفعل"، وأن "مئات الملايين من الدولارات" من الإيرادات قصيرة الأجل معرضة للخطر. من المتوقع أن تحقق الشركة إيرادات تبلغ حوالي 14 مليار دولار في عام 2026، مع أكثر من 500 عميل يدفعون مليون دولار على الأقل سنويًا مقابل Claude. وتقدر قيمتها الأخيرة بـ 380 مليار دولار.

إلى جانب العقود الحكومية، تشعر الشركة بالقلق من أن تصنيف خطر سلسلة التوريد — حتى لو كان محدودًا بشكل ضيق على العمل المتعلق بالبنتاغون — يلقي بظلال من الشك على علاقاتها التجارية الأوسع.

رد فعل الصناعة: المنافسون يُظهرون الدعم

في عرض غير عادي للتضامن بين مختبرات الذكاء الاصطناعي المتنافسة، قدم عشرات العلماء والباحثين من OpenAI و Google DeepMind مذكرة صديق للمحكمة بصفتهم الشخصية يوم الاثنين لدعم Anthropic. جادلت المجموعة بأن تصنيف خطر سلسلة التوريد يمكن أن يضر بالقدرة التنافسية الأمريكية في مجال الذكاء الاصطناعي ويقمع النقاش العام المهم حول التطوير المسؤول للتكنولوجيا.

تجدر الإشارة إلى أن OpenAI — ربما تكون المنافس الأكبر لـ Anthropic — أبرمت صفقة خاصة بها مع البنتاغون بعد ساعات قليلة من معاقبة الحكومة لـ Anthropic. ومع ذلك، صرحت OpenAI أيضًا علنًا بأنها تختلف مع تصنيف Anthropic كخطر في سلسلة التوريد، قائلة: "مستقبل جيد سيتطلب تعاونًا حقيقيًا وعميقًا بين الحكومة ومختبرات الذكاء الاصطناعي."

موقف البنتاغون

أصر مسؤولو وزارة الدفاع على أن الشركات الخاصة لا يمكنها تحديد كيفية قيام الحكومة الأمريكية بنشر التكنولوجيا في الحرب والعمليات التكتيكية. أصر البنتاغون على الحصول على مرونة كاملة لاستخدام الذكاء الاصطناعي "لأي استخدام قانوني"، مجادلًا بأن قيود Anthropic يمكن أن تعرض الأرواح الأمريكية للخطر في ساحة المعركة. ردًا على الدعوى القضائية، صرح متحدث باسم وزارة الدفاع ببساطة أن الوكالة لا تعلق على الأمور قيد التقاضي.

قالت المتحدثة باسم البيت الأبيض ليز هاستون في بيان: "الرئيس ووزير الحرب يضمنان حصول المقاتلين الأمريكيين الشجعان على الأدوات المناسبة التي يحتاجونها للنجاح وسيضمنان عدم تعرضهم أبدًا لرهائن بسبب الأهواء الأيديولوجية لأي من قادة شركات التكنولوجيا الكبرى."

Claude لا يزال قيد الاستخدام — حتى أثناء الصراع الإيراني

في مفارقة صارخة، أفادت شبكتا CBS News و CNBC أن البنتاغون واصل استخدام Claude خلال العمليات العسكرية الأمريكية والإسرائيلية الجارية التي تشمل إيران — حتى بعد وضع القائمة السوداء الرسمية. أفادت صحيفة وول ستريت جورنال أيضًا أن Claude قد تم استخدامه سابقًا في عمليات عسكرية، بما في ذلك في تقييمات استخباراتية وتحديد أهداف في إيران، وفي العملية التي أدت إلى اعتقال الزعيم الفنزويلي نيكولاس مادورو.

اعترفت Anthropic بشراكتها مع مقاولي الأمن القومي، بما في ذلك Palantir، لمعالجة البيانات وتحديد الاتجاهات ودعم صنع القرار الحكومي — وهو عمل تقول إنه يقع ضمن الحدود الأخلاقية.

ما سيحدث بعد ذلك

تسعى Anthropic إلى الحصول على أمر قضائي لمنع أمر هيغسيث بشأن خطر سلسلة التوريد واعتباره "تعسفيًا، ومتهورًا، وإساءة استخدام للسلطة التقديرية، ويتعارض مع القانون". كما ذكرت الشركة أن قرارها بالسعي إلى المراجعة القضائية لا يستبعد المزيد من الحوار مع الحكومة.

قال متحدث باسم Anthropic: "السعي إلى المراجعة القضائية لا يغير التزامنا طويل الأمد بتسخير الذكاء الاصطناعي لحماية أمننا القومي، ولكن هذه خطوة ضرورية لحماية أعمالنا وعملائنا وشركائنا. سنواصل السعي بكل السبل نحو الحل، بما في ذلك الحوار مع الحكومة."

من المرجح أن يضع هذا الحكم سابقة رئيسية ليس فقط لـ Anthropic، بل للصناعة بأكملها في مجال الذكاء الاصطناعي — حيث يحدد مدى قوة الحكومة في إجبار شركات التكنولوجيا على إزالة حواجز الأمان، وما إذا كانت الالتزامات الأخلاقية للشركات بشأن الذكاء الاصطناعي يمكن أن تتعايش مع متطلبات الأمن القومي.