OpenAI получила контракт на ИИ от Пентагона через несколько часов после того, как правительство отказалось от Anthropic

iconCryptoBreaking
Поделиться
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconСводка

expand icon
OpenAI получила контракт с Пентагоном на развертывание своих ИИ-моделей на засекреченной военной сети, согласно посту Сэма Альтмана в X в пятницу. Anthropic была отключена Белым домом после того, как она настаивала на ограничениях в отношении CFT и внутреннего наблюдения. Сделка OpenAI запрещает массовое наблюдение и требует человеческого контроля при принятии решений, связанных с применением силы. Рынок рискованных активов резко вырос в ответ, что отражает возобновившуюся уверенность в партнерствах в области ИИ для оборонных целей. Ранее Пентагон заключил с Anthropic сделку на 200 миллионов долларов в июле. Этот сдвиг свидетельствует о стремлении к более безопасной интеграции ИИ в задачи национальной безопасности.
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

OpenAI заключила соглашение о запуске своих моделей ИИ на классифицированной сети Пентагона, о чем сообщил генеральный директор OpenAI Сам Альтман в публикации на X в пятницу вечером. Это соглашение означает формальный шаг по интеграции передовых моделей ИИ в чувствительную военную инфраструктуру, что сопровождается заверениями в безопасности и управлении, соответствующими ограничениям компании. В своем сообщении Альтман описал подход департамента как уважающий границы безопасности и готовый работать в рамках установленных компанией ограничений, подчеркивая методичный путь от гражданского внедрения до классифицированных сред. Сроки этого шага ставят OpenAI в центр более широкой дискуссии о том, как государственные учреждения должны использовать искусственный интеллект, не жертвуя гражданскими свободами или операционной безопасностью, особенно в контексте обороны.

Новость появилась на фоне того, что Белый дом распорядился федеральным агентствам прекратить использование технологий Anthropic и начал шестимесячный переходный период для агентств, уже зависящих от ее систем. Эта политика демонстрирует намерение администрации ужесточить контроль над инструментами ИИ, используемыми в правительстве, сохраняя при этом возможность для тщательно спланированных, ориентированных на безопасность развертываний. Противопоставление интеграции, поддержанной Пентагоном, и всеобщей приостановке использования конкурирующей платформы подчеркивает масштабное переосмысление в рамках всего правительства о том, как, где и при каких мерах безопасности технологии ИИ должны применяться в чувствительных областях.

Замечания Альтмана подчеркнули осторожную, но конструктивную позицию в отношении применений в области национальной безопасности. Он представил соглашение с OpenAI как подход, который ставит безопасность на первое место, сохраняя при этом доступ к мощным возможностям — аргумент, соответствующий текущим дискуссиям об ответственном использовании ИИ в государственных сетях. Подход Министерства обороны — предпочтение контролируемого доступа и строгого управления — отражает более широкую политическую тенденцию к внедрению операционной безопасности в развертывания, которые в противном случае могли бы ускорить влияние ИИ на принятие критически важных решений. Публичные сигналы с обеих сторон указывают на модель, в которой сотрудничество с оборонными структурами осуществляется в рамках строгих рамок соответствия, а не широкого, нефильтрованного использования.

На этом регуляторном и политическом фоне ситуация Anthropic остается центральной. Компания была первой лабораторией ИИ, которая развернула модели в классифицированной среде Пентагона по контракту на 200 миллионов долларов, подписанному в июле. Переговоры, как сообщается, провалились после того, как Anthropic потребовала гарантий, что ее программное обеспечение не будет использоваться для создания автономного оружия или массового наблюдения внутри страны. В свою очередь, Министерство обороны настаивало на том, чтобы технология оставалась доступной для всех законных военных целей — позиция, направленная на сохранение гибкости для оборонных нужд при одновременном обеспечении защитных мер. Это расхождение иллюстрирует тонкий баланс между обеспечением передовых возможностей и установлением ограничений, соответствующих соображениям национальной безопасности и гражданских свобод.

Позже Anthropic заявила, что «глубоко опечалена» таким решением, и намерена оспорить его в суде. Этот шаг, если он будет подтвержден, может создать важный прецедент, повлиявший на то, как американские технологические компании ведут переговоры с государственными органами по мере усиления политического контроля над партнерствами в области ИИ. OpenAI, со своей стороны, заявила, что сохраняет аналогичные ограничения и включила их в собственную соглашательную структуру. Альтман отметил, что OpenAI запрещает массовый надзор внутри страны и требует человеческой подотчетности при принятии решений, связанных с применением силы, включая автоматизированные системы вооружения. Эти положения призваны соответствовать ожиданиям правительства в отношении ответственного использования ИИ в чувствительных операциях, даже когда военные исследуют более глубокую интеграцию инструментов ИИ в свои рабочие процессы.

Реакция общественности на эти события была неоднозначной. Некоторые наблюдатели на социальных платформах поставили под сомнение траекторию управления ИИ и последствия для инноваций. Обсуждение затрагивает более широкие опасения относительно того, как безопасность и гражданские свободы могут быть согласованы со скоростью и масштабом внедрения ИИ в государственных и оборонных сферах. Тем не менее, основной вывод ясен: правительство активно экспериментирует с ИИ в областях национальной безопасности, одновременно устанавливая ограничения для предотвращения злоупотреблений, и результаты этих действий, вероятно, сформируют будущие закупки и сотрудничество в технологическом секторе.

Комментарии Альтмана подтвердили, что ограничения OpenAI включают запрет на внутренний массовый слежение и требование человеческого контроля при принятии решений, связанных с применением силы, включая автоматизированные системы вооружения. Эти обязательства представлены как предварительные условия для доступа в классифицированные среды, что свидетельствует о модели управления, направленной на согласование мощи крупномасштабных ИИ-моделей с мерами безопасности, требуемыми для чувствительных операций. Более широкая тенденция указывает на устойчивый интерес со стороны политиков и представителей оборонной сферы к использованию преимуществ ИИ при сохранении жесткого контроля для предотвращения превышения полномочий или неправомерного использования. По мере перехода к этапу практической реализации как государственные учреждения, так и технологические провайдеры будут оцениваться по их способности обеспечивать безопасность, прозрачность и подотчетность в условиях высоких рисков.

Развивающийся сюжет также подчеркивает, как закупки и политические решения в области ИИ повлияют на более широкую экосистему технологии. Если эксперименты Пентагона с моделями OpenAI в классифицированных сетях окажутся масштабируемыми и безопасными, они могут стать шаблоном для будущих сотрудничеств, сочетающих передовые технологии ИИ с строгим управлением — моделью, которая, вероятно, распространится на смежные отрасли — включая те, которые исследуют аналитику с помощью ИИ и механизмы управления на основе блокчейна. В то же время случай с Anthropic демонстрирует, как такие закупочные переговоры могут зависеть от явных гарантий относительно вооружения и слежки — вопроса, который может сформировать условия, при которых стартапы и устоявшиеся компании будут стремиться получить федеральные контракты.

В то же время общественные дискуссии по поводу политики в области ИИ продолжают развиваться, и законодатели и регуляторы внимательно следят за тем, как частные компании реагируют на требования национальной безопасности. Исход предполагаемого юридического вызова Anthropic может повлиять на тактику переговоров для будущих государственных партнерств, потенциально влияя на то, как формулируются сроки, как распределяются риски и как проверяется соблюдение требований в различных агентствах. Развертывание, поддержанное OpenAI, внутри классифицированной сети Пентагона остается тестовым случаем для балансировки скорости и полезности ИИ с ограничениями подотчетности и безопасности, которые определяют его самые чувствительные применения.

По мере того как регуляторная среда продолжает меняться, многие в технологическом сообществе будут следить за тем, как эти изменения превратятся в конкретные практики — как будут эволюционировать оценки рисков, протоколы безопасности и стандарты управления в развертываниях ИИ следующего поколения. Взаимодействие между агрессивным развитием возможностей и сознательным сдерживанием рисков теперь стало ключевой чертой стратегического планирования технологий, причем последствия этого выходят за рамки обороны и затрагивают другие сектора, зависящие от ИИ для принятия решений, анализа данных и критически важных операций. Ближайшие месяцы покажут, может ли сотрудничество OpenAI и Министерства обороны США служить устойчивой моделью для безопасной и ответственной интеграции ИИ в самые чувствительные области государства.

Поздний пост OpenAI в X в пятницу, описывающий развертывание Пентагона, и позиция Министерства обороны, ориентированная на безопасность в отношении Anthropic, закрепляют повествование на первоисточниках. Пост в Truth Social, приписываемый президенту Трампу, дополнительно контекстуализирует политическую обстановку, связанную с федеральной политикой в области ИИ. С другой стороны, официальное заявление компании Anthropic представляет официальную позицию в ответ на это назначение и его правовые последствия. Вместе эти источники описывают многогранный ландшафт, где национальная безопасность, гражданские свободы и коммерческие интересы пересекаются в реальном времени.

Эта статья была первоначально опубликована как OpenAI получает оборонный контракт через час после того, как правительство отказалось от Anthropic на Crypto Breaking News — вашем надежном источнике новостей о криптовалюте, новостей о bitcoin и обновлений блокчейна.

Отказ от ответственности: Информация на этой странице может быть получена от третьих лиц и не обязательно отражает взгляды или мнения KuCoin. Данный контент предоставляется исключительно в общих информационных целях, без каких-либо заверений или гарантий, а также не может быть истолкован как финансовый или инвестиционный совет. KuCoin не несет ответственности за ошибки или упущения, а также за любые результаты, полученные в результате использования этой информации. Инвестиции в цифровые активы могут быть рискованными. Пожалуйста, тщательно оценивайте риски, связанные с продуктом, и свою устойчивость к риску, исходя из собственных финансовых обстоятельств. Для получения более подробной информации, пожалуйста, ознакомьтесь с нашими Условиями использования и Уведомлением о риске.