رسالة BlockBeats، في 28 فبراير، طلبت وزارة الدفاع الأمريكية من Anthropic إلغاء القيود الأمنية المدمجة في Claude بشأن "الروبوتات القاتلة الذاتية" و"المراقبة الجماعية"، وإلا فستفقد عقدًا بقيمة 200 مليون دولار وتُصنف كخطر في سلسلة التوريد. رفضت Anthropic تقديم التزام كتابي، وردّ داريو أموديي، المؤسس المشارك والرئيس التنفيذي، بحزم: "هذه التهديدات لا يمكنها تغيير موقفنا، ولا يمكننا الموافقة على طلبهم من الناحية الأخلاقية."
أيد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، شركة Anthropic خلال برنامج على CNBC، قائلاً: "أعتقد أن وزارة الدفاع الأمريكية لا ينبغي أن تطلق مثل هذه التهديدات. على الرغم من أن لديّ خلافات كثيرة مع Anthropic، إلا أنهم موثوقون في مجال الأمان." لقد حددت أكبر منافستين في مجال الذكاء الاصطناعي هذه النقطة الحمراء علنًا في وقت واحد، بينما رفض سام ألتمان وداريو أموديي في قمة الذكاء الاصطناعي في الهند الأسبوع الماضي التصافح في صورة جماعية. وفي الوقت نفسه، وقّع 70 موظفًا من OpenAI على رسالة مفتوحة بعنوان "لن ننفصل"، كما أعرب مهندسون من جوجل عن دعمهم.
رد ترامب بقوة: لقد أمرت كل وكالة اتحادية في الحكومة الأمريكية بإيقاف استخدام تقنيات Anthropic فورًا. نحن لا نحتاجها، ولا نريدها، ولن نتعامل معهم مرة أخرى! بالنسبة للوكالات التي تستخدم منتجات Anthropic، مثل وزارة الحرب، سيتم منحها فترة تدريجية مدتها ستة أشهر للتخلص التدريجي. من الأفضل لـ Anthropic أن تتصرف بشكل جيد خلال هذه الفترة التدريجية وتقديم المساعدة، وإلا فسأستخدم كامل سلطات الرئيس لإجبارهم على الامتثال، وسيواجهون عواقب مدنية وجنائية جسيمة.
