Федеральний суддя забороняє заборону Трампа на Anthropic

iconCryptoBriefing
Поділитися
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconКороткий зміст

expand icon
Федеральний суддя у Сан-Франциско заборонив уряду Трампа застосовувати чорний список проти компанії з штучним інтелектом Anthropic та забороняти використання її моделей Claude. Це рішення призупиняє виконання директиви та визначення Pentagon, що Anthropic є загрозою національній безпеці. Суперечка виникла після того, як Anthropic відмовилася прибрати обмеження безпеки під час переговорів з Pentagon. Уряд наказав агентствам припинити використання її технологій, а міністр оборони Піт Хегсет назвав це ризиком для ланцюга поставок. Anthropic, яка мала контракт з Pentagon на 200 мільйонів доларів, стверджувала, що цей крок порушує Першу поправку та впливає на ліквідність і крипторинки. Також згадувалася рамкова структура CFT у пов’язаних регуляторних обговореннях.

Anthropic отримала важливу ранню судову перемогу, коли федеральний суддя у Сан-Франциско задовольнила запит AI-стартапу на тимчасову заборону, що призупиняє виконання дій адміністрації Трампа, які включали компанію до чорного списку та обмежували використання її моделей Claude федеральними агентствами.

Суддя окружного суду США Ріта Лін встановила, що Anthropic продемонструвала ймовірність успіху у ключових аспектах своєї справи, зазначивши, що дії уряду здавалися більш покаральними, ніж спрямованими на забезпечення безпеки. Reuters повідомив, що Лін сказала, що покарання Anthropic за звернення уваги громадськості до позиції уряду щодо контрактів виглядає незаконним порушенням Першої поправки.

Заказ забороняє адміністрації наразі впроваджувати чи застосовувати указ президента Дональда Трампа щодо Anthropic та відстоювати зусилля Міністерства оборони щодо класифікації компанії як ризику для ланцюжка постачання національної безпеки. Reuters повідомив, що рішення призупинено на сім днів, щоб уряд мав час подати апеляцію.

Суперечка розпочалася після того, як Anthropic відмовилася повністю видалити обмеження безпеки з Claude під час переговорів із Пентагоном. Компанія заявила, що не згодна на використання, пов’язані з повністю автономними зброєю без нагляду людини або з масовим слідкуванням за американцями, навіть залишаючись відкритою до ширшої роботи з урядом.

Трамп потім у кінці лютого наказав федеральним агентствам припинити використання технологій Anthropic, тоді як міністр оборони Піт Хегсет окремо визначив компанію як ризик ланцюга поставок, що може змусити оборонних підрядників уникати Claude у військових роботах. Anthropic стверджувала, що це був перший раз, коли така маркування була публічно застосована до американської компанії таким чином.

Ставки високі, оскільки Anthropic стала важливим постачальником ШІ для уряду США. Компанія мала контракт на 200 мільйонів доларів від Пентагону і вже розгорнула моделі в класифікованих мережах Міністерства оборони, перш ніж стосунки були перервані через умови використання.

Уряд Трампа використовував окремі правові основи для чорного списку Міністерства оборони та для ширших обмежень щодо федеральних закупівель, змусивши Anthropic сперечатися з ними у різних судах. Окрема справа, пов’язана з громадянськими урядовими контрактами, все ще рухається у Вашингтоні.

Відмова від відповідальності: Інформація на цій сторінці може бути отримана від третіх осіб і не обов'язково відображає погляди або думки KuCoin. Цей контент надається лише для загального інформування, без будь-яких запевнень або гарантій, а також не може розглядатися як фінансова або інвестиційна порада. KuCoin не несе відповідальності за будь-які помилки або упущення, а також за будь-які результати, отримані в результаті використання цієї інформації. Інвестиції в цифрові активи можуть бути ризикованими. Будь ласка, ретельно оцініть ризики продукту та свою толерантність до ризику, виходячи з ваших власних фінансових обставин. Для отримання додаткової інформації, будь ласка, зверніться до наших Умов використання та Розкриття інформації про ризики.