قاضٍ فيدرالي يمنع قائمة ترامب السوداء والحظر المفروض على أنثروبيك

iconCryptoBriefing
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
منع قاضٍ اتحادي في سان فرانسيسكو إدارة ترامب من تطبيق قائمة سوداء ضد شركة الذكاء الاصطناعي أنثروبيك وحظر نماذج كلوود الخاصة بها. ويتوقف هذا الحكم تطبيق التوجيه وتصنيف وزارة الدفاع لأنثروبيك كخطر على الأمن القومي. نشأ النزاع بعد رفض أنثروبيك إزالة قيود السلامة خلال محادثات وزارة الدفاع. وأمرت الإدارة الوكالات بوقف استخدام تقنياتها، حيث وصف وزير الدفاع بيت هيغسيث ذلك كخطر في سلسلة التوريد. وادعت أنثروبيك، التي كانت تمتلك عقدًا بقيمة 200 مليون دولار مع وزارة الدفاع، أن هذا الإجراء ينتهك التعديل الأول ويؤثر على السيولة وأسواق العملات المشفرة. كما تم الإشارة إلى إطار CFT في المناقشات التنظيمية ذات الصلة.

فازت Anthropic بانتصار قضائي مبكر عندما منح قاضٍ اتحادي في سان فرانسيسكو طلب الشركة الناشئة للحصول على أمر قضائي مؤقت، وعَلَّق مؤقتًا تنفيذ إجراءات إدارة ترامب التي قوّضت الشركة وحظرت الوكالات الفيدرالية من استخدام نماذج Claude الخاصة بها.

وجدت القاضية الفيدرالية الأمريكية ريتا لين أن أنثروبيك أظهرت احتمالًا للنجاح في جوانب أساسية من قضيتها، وكتبت أن إجراءات الحكومة تبدو أكثر عقابية منها مبنية على الأمن. أفادت رويترز أن لين قالت إن معاقبة أنثروبيك بسبب جذبها الانتباه العام لموقف الحكومة التعاقدي يبدو انتقامًا غير قانوني ينتهك التعديل الأول.

يمنع الأمر الإدارية، لحين إشعار آخر، من تنفيذ أو تطبيق توجيه الرئيس دونالد ترامب ضد Anthropic ومن المضي قدمًا في جهود البنتاغون لاعتبار الشركة خطرًا في سلسلة التوريد للأمن القومي. أفادت رويترز أن الحكم معلق لمدة سبعة أيام لمنح الحكومة وقتًا للاستئناف.

بدأ النزاع بعد أن رفضت Anthropic إزالة قيود السلامة من Claude في مفاوضات البنتاغون بالكامل. وقالت الشركة إنها لن توافق على استخدامات مرتبطة بالأسلحة ذاتية التشغيل الكاملة دون إشراف بشري أو المراقبة الجماعية للسكان الأمريكيين، حتى مع بقائها منفتحة على أعمال أوسع مع الحكومة.

ثم تحرك ترامب في أواخر فبراير لطلب من الوكالات الفيدرالية وقف استخدام تقنية Anthropic، بينما وصف وزير الدفاع بيت هيغسيث الشركة على نحو منفصل كمصدر خطر في سلسلة التوريد، وهي تسمية يمكن أن تجبر المتعاقدين الدفاعيين على تجنب استخدام Claude في الأعمال العسكرية. وادعت Anthropic أن هذا كان أول مرة تُستخدم فيها مثل هذه التسمية علنًا ضد شركة أمريكية بهذه الطريقة.

المخاطر عالية لأن أنثروبيك أصبحت موردًا مهمًا للذكاء الاصطناعي للحكومة الأمريكية. كانت الشركة تمتلك عقدًا بقيمة 200 مليون دولار مع وزارة الدفاع، وقد نشرت بالفعل نماذج عبر شبكات وزارة الدفاع السرية قبل أن تنهار العلاقة بسبب شروط الاستخدام.

اعتمد إدارة ترامب على سلطات قانونية منفصلة لقائمة السوداء الخاصة بوزارة الدفاع والقيود الفيدرالية الأوسع على المشتريات، مما اضطر أنثروبيك إلى التحدي أمام محاكم مختلفة. لا تزال قضية منفصلة مرتبطة بعقود الحكومة المدنية قيد التقدم في واشنطن.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.