القاضي يدين بشدة الجيش الأمريكي لانتهاك الدستور! يطالب بإلغاء ملصق مخاطر سلسلة التوريد الخاص بـ Anthropic، تقرير تمهيدي قبل 4/6

CryptoCity

أوقف قاضٍ اتحادي مؤقتًا وزارة الدفاع الأمريكية (البنتاغون) عن إدراج شركة Anthropic في القائمة السوداء، معتبرًا ذلك انتقامًا غير دستوري؛ وتستمر خطة طرح عملاق الذكاء الاصطناعي للاكتتاب العام (IPO) بقيمة 3,800 مليار دولار.

تمت توجيه «سكين قانوني» إلى البنتاغون؛ القاضي يوبّخ واصفًا الوسم بأنه «على طريقة أورويل»

شهدت صناعة الذكاء الاصطناعي في الولايات المتحدة مؤخرًا انتصارًا قضائيًا بارزًا. ففي يوم الخميس الماضي (3/26)، أصدر القاضي الفيدرالي في كاليفورنيا ريتا لين (Rita Lin) أمرًا زجريًا أوليًا رسميًا، لمنع إدارة ترامب من إدراج عملاق الذكاء الاصطناعي Anthropic ضمن قائمة مخاطر سلسلة التوريد السوداء. وقد تحدّت هذه الخطوة مباشرةً تعليمات البنتاغون ووزير الدفاع بيتر هيغستس (Pete Hegseth). واستخدم القاضي في حيثيات الحكم تعبيرات شديدة اللهجة، مشيرًا إلى أن قيام الحكومة بلصق شركة أمريكية محلية تهمتي «خصم محتمل» و«مخرّب» يحمل قدرًا كبيرًا من السخرية.

أكّدت ريتا لين أن الإطار القانوني الحالي لا يدعم منطق الإدارة هذا من نوع «الأورويليّة (Orwellian)». لا يمكن لنظام إداري أن ينظر إلى شركة على أنها تهديد أمني للدولة لمجرد أن موقفها يختلف عن موقف الحكومة فيما يتعلق بتعبيرها؛ فهذا يتجاوز بوضوح حدود التفويض. وتطلب المحكمة من الحكومة الفيدرالية التوقف فورًا عن تنفيذ القيود ذات الصلة، وتقديم تقرير امتثال قبل 6 أبريل/نيسان يوضح الطريقة المحددة لتنفيذ إلغاء أمر المنع.

تتمحور القضية القانونية حول ما إذا كانت الحكومة تستخدم اسم الأمن القومي كغطاء للتشفّي من المواقف التصريحية. وفقًا للمواد التي كشفتها المحكمة، فإن معاقبة وزارة الدفاع (ويُشار إليها أيضًا باسم «وزارة الحرب») لشركة Anthropic تستند إلى حد كبير إلى التصريحات العلنية التي أدلت بها الشركة في وسائل الإعلام، دون إجراء تقييمات تقنية صارمة لأمنها. وأشار القاضي إلى أن معاقبة Anthropic أدت إلى لفت انتباه الجمهور لمواقف الحكومة تجاه العقود، وهو سلوك انتقامي ينتهك التعديل الأول للدستور الأمريكي. وفي جلسة الاستماع التي عُقدت يوم الثلاثاء في سان فرانسيسكو، شككت ريتا لين في أن عتبة تعريف الحكومة للشركات على أنها «تهديد» منخفضة للغاية.

وترى أنه إذا كانت لدى البنتاغون شكوك بشأن التحكم التقني، فيمكنها ببساطة إيقاف استخدام نموذج Claude. أما وسمه «بمخاطر سلسلة التوريد» بما يتضمن الإذلال والطابع التدميري، فليس أمرًا مناسبًا. وقد أعادت هذه القرارات مؤقتًا وضع التعاون بين Anthropic والمقاولين الفيدراليين، ووضع مظلة حماية قانونية لعمليات شركات الذكاء الاصطناعي مستقبلًا عند مواجهة ضغوط الحكومة.

رفض الانجرار إلى آلة حرب؛ Anthropic تتعرض للانتقام بسبب تمسكها بأخلاقيات الذكاء الاصطناعي

تعود شرارة هذا النزاع إلى عقد بقيمة 200 مليون دولار تم توقيعه في يوليو 2025 بين Anthropic والبنتاغون. في ذلك الوقت، اتفق الطرفان على أن يصبح Claude أول نموذج ذكاء اصطناعي رائد يُسمح بتشغيله على شبكة سرية.

غير أن علاقة التعاون بينهما انهارت في فبراير 2026. حاولت وزارة الدفاع إعادة التفاوض على شروط العقد، مطالبةً Anthropic بإلغاء جميع القيود، والسماح للجيش باستخدام Claude لجميع الأغراض القانونية. ومن جانبها، التزمت Anthropic التي دأبت على إبراز التزامها بأمن الذكاء الاصطناعي بخط أحمر، ورفضت تطبيق تقنيتها في أنظمة أسلحة ذاتية قاتلة، وكذلك في أنشطة مراقبة داخلية واسعة النطاق تستهدف المواطنين الأمريكيين. وتعتقد قيادات الشركة أن نماذج الذكاء الاصطناعي الحالية لا تزال تفتقر إلى درجة كافية من الأمان والدقة في هذه الصناعات الحساسة؛ وأن الدفع بها فجأة إلى ساحة المعركة أو استخدامَها في المراقبة سيؤدي إلى عواقب كارثية.

ثم تصاعدت الأمور بسرعة. فقد أظهرت ردود جهاز الإدارة طابعًا واضحًا من العاطفة الشخصية. ففي 24 فبراير، أصدر وزير الدفاع هيغستس (Hegseth) في اجتماع إنذارًا نهائيًا بشأن Anthropic، مهددًا بتنفيذ عقوبات فورًا إذا لم تُلغِ القيود. وبعد رفض Anthropic التوصل إلى حل وسط، نشر الرئيس الأمريكي ترامب في 27 فبراير على Truth Social هجومًا علنيًا على الشركة، واصفًا إياها بأنها «يسارية متطرفة وشركة مستيقظة»، موجهًا الاتهام إليها بمحاولة ترهيب وزارة الدفاع، ثم أصدر فورًا أمرًا لجميع الوكالات الفيدرالية بالتوقف عن استخدام منتجات Anthropic.

بعد ذلك مباشرةً، وصفت هيغستس موقف Anthropic بأنه «تحفة متعالية وخائنة»، وأصدر رسميًا وسم «مخاطر سلسلة التوريد». وهذه الوسيلة المتطرفة، التي كان يُحتفظ بها عادةً لوكالات الاستخبارات الأجنبية أو المنظمات الإرهابية، تم تطبيقها لأول مرة على شركة تقنية أمريكية محلية. ويعتقد الخبراء أن هذا التصرف الذي يحوّل القانون إلى سلاح يعكس تسرع جهاز الإدارة في مواجهة تحديات أخلاقيات التقنية.

  • أخبار ذات صلة: الأمن القومي مقابل الأخلاقيات: Anthropic ترفض إزالة حواجز أمان Claude وتخوض مواجهة مع وزارة الدفاع الأمريكية

دخلت أسواق رأس المال بثقة، عملاق يقدّر بنحو 3,800 مليار يواصل خطة إدراج في أكتوبر

على الرغم من تعرضها لعاصفة من السياسة والقانون، تظل أداء Anthropic في أسواق رأس المال قويًا، ما يعكس مرونة كبيرة. ووفقًا لبيانات حتى عام 2025، بلغت حصة Anthropic في سوق ذكاء اصطناعي للشركات 32%، متقدمةً على 25% لدى OpenAI، ومحتلةً صدارة الصناعة. وفي جولة تمويل بقيمة 30 مليار دولار اختُتمت للتو في شهر فبراير من هذا العام، ارتفع تقييم هذه الشركة النجمية في مجال الذكاء الاصطناعي إلى 3,800 مليار دولار؛ وكانت هذه الجولة بقيادة صندوق الثروة السيادية MGX.

وفي الوقت نفسه، أقامت عمالقة التكنولوجيا مثل Google التابعة لـ Alphabet وAmazon وMicrosoft وNvidia شراكات عميقة مع Anthropic، وبلغت قيمة استثماراتهم وتعاملاتهم المتعلقة بالبنية التحتية مئات المليارات. إن دعم «عمالقة السيليكون فالي» هؤلاء يمنح Anthropic أساسًا ماليًا لمواجهة الضغوط السياسية.

  • أخبار ذات صلة: رفعت Anthropic دعوى إلى المحكمة! اتهامات ضد حكومة ترامب بالانتقام وإغلاق Claude؛ 37 باحثًا في مجال الذكاء الاصطناعي يساندون

أتاحت أحدث قرارات المحكمة لـ Anthropic تمهيد الطريق أمام الأسواق العامة. وكشف مصدرون أن Anthropic تسرّع من دفع خطة الاكتتاب العام (IPO) (الطرح الأولي)، وقد تسجل إدراجًا في أسرع حال في أكتوبر 2026، ومن المتوقع أن تتجاوز الأموال التي ستُجمع 60 مليار دولار. وفي الوقت الحالي، تم إدراج بنوك استثمار من الصف الأول مثل Goldman Sachs وJPMorgan وMorgan Stanley كمستشارين محتمَلين للاكتتاب.

يشير خبراء قانونيون إلى أنه إذا استمر أمر الحظر في القائمة السوداء من جانب الحكومة، فسيؤدي ذلك إلى انخفاض كبير في حصة Anthropic في السوق، ما سيضرب ثقة المستثمرين بشدة. أما الآن، فقد قضت المحكمة بأن أمر المنع غير دستوري، مما يحمي المصالح التجارية للشركة. كما يرسل ذلك إشارة إلى السوق: تمسك الشركات بأخلاقيات أمان الذكاء الاصطناعي ينبغي أن يحظى بحماية قانونية، وليس أن يتحول إلى ذريعة لقمع الحكومة.

انطلاق مشروع مركز بيانات بقيمة 5 مليارات دولار في تكساس؛ القوات الأمامية تتجاهل أمر المنع وتستخدم Claude كالمعتاد

بعيدًا عن ساحة المعارك القانونية والسياسية، لا تتوقف خطوات التوسع في البنية التحتية لدى Anthropic. إذ تعمل Google على دعم مشروع مركز بيانات في تكساس تبلغ تكلفته 5 مليارات دولار، وسيتم تأجيره بالكامل لشركة Anthropic لاستخدامه. وسيتم تشغيل هذا الموقع الذي تبلغ مساحته 2,800 فدان من قبل Nexus Data Centers، ومن المتوقع أن يوفر نحو 500 ميغاواط (MW) من القدرة الكهربائية بحلول نهاية 2026، وهو ما يكفي لدعم احتياجات الكهرباء لـ 500,000 منزل. وفي المستقبل، تتوفر إمكانية توسيع القدرة إلى 7.7 جيغاواط (GW). يتمتع المشروع بموقع جغرافي متميز، قريبًا من خطوط أنابيب الغاز الطبيعي الرئيسية، ما يسمح بالاستفادة من توربينات الغاز المستقلة لتوليد الكهرباء في الموقع، بما يضمن موثوقية عالية في حسابات قوة الذكاء الاصطناعي (AI). ويُظهر هذا المخطط الكبير للبنية التحتية مدى عزم صناعة التكنولوجيا على الاستثمار في البنية التحتية طويلة الأجل للذكاء الاصطناعي.

إضافة إلى ذلك، ووفقًا لتقارير من وسائل إعلام أجنبية، فقد نشأ نوع من الاعتماد على مسار محدد لدى القوات المسلحة الأمريكية على نموذج Claude. وحتى إذا أصدر البيت الأبيض أمرًا حظرًا صارمًا، فإن القيادة المركزية الأمريكية (CENTCOM) ما زالت تستخدم نموذج الذكاء الاصطناعي الخاص بـ Anthropic في الآونة الأخيرة لدعم العمليات القتالية في الغارات الجوية على إيران. ويكشف ذلك عن فجوة بين سياسات الحكومة واحتياجات الخطوط الأمامية.

  • أخبار ذات صلة: وول ستريت جورنال: بعد أن أصدر ترامب أمر حظر Anthropic، لا يزال شنغ/أمريكا وشن هجمات جوية على إيران مع الاعتماد على Claude

إن الإدارة جعلته «خطرًا» بسبب الموقف السياسي، بينما اختارت وحدات التنفيذ الفعلي الاعتماد عليه بسبب التفوق التقني. يثبت انطلاق مشروع مركز البيانات والاستخدام العملي في الميدان أهمية Anthropic. ومع استعادة الشركة لوضعها كمورّد فيدرالي، ستواصل عملاق الذكاء الاصطناعي تطوير أعمالها في موازنة أخلاقيات التقنية والمصالح الوطنية، وستواجه أي استئنافات محتملة من جانب الحكومة لاحقًا.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات