OpenAI, Microsoft и системы ИИ Google участвуют в операциях по иранской войне 2026 года

iconPANews
Поделиться
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconСводка

expand icon
AI и криптовалютные новостные издания сообщают, что системы OpenAI, Microsoft и Google AI были задействованы в операции «Epic Fury» в Иране в 2026 году. Модели GPT от OpenAI поддерживали военную разведку и моделирование, а Microsoft и Google обеспечили облачную инфраструктуру для обработки данных в реальном времени и планирования. Применение ИИ в боевых действиях вызывает этические опасения, особенно в отношении автономных решений и безопасности гражданских лиц. Анонс проекта от OpenAI подтвердил его участие в контракте с Министерством обороны США.

Автор: Anita, руководитель Sentient в Азиатско-Тихоокеанском регионе

Война в Иране выбросила крупные модели из лаборатории прямо на поле боя.

Операция «Epic Fury» в конце февраля 2026 года была не просто совместным авиаударом, а скорее тестом ИИ на реальном поле боя: тот, кто сможет сжать цепочку «сенсоры — принятие решения — стрелок» до минут или даже секунд, получит контроль над ценообразованием следующего раунда геополитики.

I. Epic Fury: Первая «AI-война полного стека»

В ходе этой операции американские и израильские официальные источники заявили, что целенаправленные удары по ключевым военным и ядерным объектам Ирана «достигли стратегического успеха» и неоднократно намекали, что верховный лидер Ирана Хаменеи, скорее всего, погиб в результате атаки на подземный командный центр на севере Тегерана — однако иранская сторона долгое время отказывается давать четкое подтверждение его смерти или выживания, превращая эту «декапитацию» в игру вокруг авторитетного нарратива.

С операционной точки зрения, особенность Epic Fury заключается не в продолжительности, а в плотности: интенсивные воздушные удары, атаки дронов-роями, специальные операции и кибервойна, чередующиеся в течение десяти дней, основаны на высоко программированной боевой стеке — платформе Palantir для онтологии поля боя и цифровых двойников, системе интеграции разведданных американских оборонных агентств, инструментах автоматической генерации целей Израиля, дополненных новой ролью передовых компаний крупных моделей, таких как OpenAI.

Эта война стала символическим переломным моментом: начиная с этого момента, «участие ИИ в военных решениях» больше не является модным словом из презентаций Пентагона, а стало реальным источником денежных потоков и политических рисков, которые невозможно игнорировать на рынке, в регулировании и в этических дебатах.

Два: OpenAI — от «Декларации этики» до самого дорогого SaaS-подписки в Министерстве обороны

За короткие два-три года публичная позиция OpenAI претерпела великолепный поворот.

От дистанцирования от «военных целей» до признания возможности поддержки проектов национальной безопасности и обороны при соблюдении принципов безопасности, а также получения, возможно, самого чувствительного клиентского контракта этого времени.

В феврале 2026 года, примерно 27-го числа, Сэм Альтман объявил, что компания заключила соглашение с Министерством обороны США о развертывании моделей серии GPT на секретной сети для использования в «оборонных сценариях», таких как анализ разведданных, перевод и военные учения. В некоторых публичных материалах и СМИ это традиционное Министерство обороны намеренно называлось «Department of War», символически возвращаясь к более агрессивной военной лексике, хотя юридически название учреждения остается Department of Defense.

Опубликованные материалы выделяют три основные «красные линии»:

  • Не участвуем в массовом наблюдении в пределах США;

  • Не использовать полностью автономные смертоносные системы оружия без прямого управления; применение силы должно оставаться под контролем человека;

Сохраняйте человеческий контроль и ответственность при принятии решений с высоким уровнем риска.

  • Эти принципы являются как этической позицией OpenAI перед общественностью, так и рычагом переговоров в контрактных обсуждениях — они передают Вашингтону сигнал: эта компания готова сотрудничать, но хочет сотрудничать «в контролируемых пределах». nytimes+1

Какую роль играют эти модели в таких реальных условиях, как Epic Fury? Публичная информация ограничится безопасными описаниями — помощь в обработке разведданных, анализ сложных данных, помощь принимающим решения быстрее формировать картину ситуации.

Но с точки зрения технических характеристик, подача огромного объема спутниковых изображений, сигналов разведки и потоков социальных сетей в крупные модели, а затем их сортировка, прогнозирование маршрутов и оценка рисков потенциальных «высокоценных целей», по сути, очень близка к « Battlefield Brain ».

Для Уолл-стрит значение этого соглашения очень очевидно.

После того как Anthropic была классифицирована Пентагоном как «риск для цепочки поставок» из-за соблюдения более жестких границ, OpenAI приняла этот многомиллиардный оборонный контракт, который крайне сложно оспорить конкурентам, сделав этически ограниченные уступки и получив огромную коммерческую выгоду.

Три: Anthropic — «принципиалист», колеблющийся на грани оборонного бюджета

В резком контрасте с «практичным» подходом OpenAI находится положение Anthropic: изначально она также считалась одним из самых ценных поставщиков передовых моделей для Пентагона, но из-за отказа отступать на красных линиях была исключена из всей системы крайне грубым образом.

Несколько СМИ сообщили, что Anthropic проявила жесткую позицию по двум пунктам в переговорах с Министерством обороны:

  • Клауд не участвует в полностью автономных системах вооружения;

Claude не участвует в массовом наблюдении и профилировании граждан США.

  • А требования Пентагона ближе к тому, чтобы никакие законные применения не должны заранее ограничиваться поставщиками моделей.

После провала переговоров министр обороны Пит Хегсетт объявил после истечения срока, что Anthropic включена в список «рисков цепочки поставок» для национальной безопасности, и потребовал от всех подрядчиков, сотрудничающих с вооруженными силами, завершить миграцию с Claude в течение шести месяцев. Такая маркировка ранее применялась преимущественно к компаниям из стран-соперников, таким как Huawei, и теперь впервые была применена к американской стартап-компании в области ИИ, что вызвало дискуссии о «эффекте молчания» в Силиконовой долине.

Внутренняя оценка Пентагона показывает, что полная замена крупных языковых моделей, встроенных в секретные системы, может занять несколько месяцев, что означает высокую степень перекрытия между сроком вступления в силу запрета и временным окном Epic Fury.

Исходя из технической реальности, Claude, скорее всего, до того, как был вынужден уйти под административным распоряжением, все еще участвовал в работе по национальной безопасности США, однако никто не захотел четко раскрыть эту связь на слушаниях — это типичная «серая зона» современного военно-промышленно-технологического комплекса.

На финансовых рынках читается простой, но опасный урок: когда «безопасные границы» вступают в конфликт с «максимизацией оборонных заказов», компания, которая готова идти на переговоры, часто оказывается более безопасным инвестиционным активом; в то время как компании, придерживающиеся принципов, могут за одну ночь получить ярлык «риска цепочки поставок» и столкнуться с пересмотром оценки инвесторами.

Четвертый: настоящий центральный нервный узел: Microsoft, Google и «военно-промышленный комплекс в облаке»

Если OpenAI и Anthropic — это «мозг» в войне, то Microsoft и Google — настоящая центральная нервная система этой системы:

Без их облака все крупные модели и локальные инструменты ИИ останутся лишь на уровне презентаций.

Microsoft Azure: от офисного облака до операционной системы цепочки поражения

AP и несколько организаций провели расследование, согласно которому с октября 2023 года масштаб использования израильской армией инструментов машинного обучения на Azure увеличился в десятки раз за несколько месяцев, достигнув максимума в 64 раза, а общее количество вызовов функций ИИ приблизилось к 200-кратному уровню.

Meanwhile, large-scale data storage has reached a scale equivalent to that of the Library of Congress.

Эти вычислительные мощности используются для транскрипции и перевода большого объема коммуникаций, обработки сигналов разведки из инфраструктуры наблюдения и взаимодействия с израильскими ИИ-системами (такими как Lavender и Gospel) для автоматической генерации списков целей и оценок рисков, что значительно повысило пропускную способность «линии производства целей».

Хотя Microsoft позже сократила услуги для некоторых израильских военных подразделений (особенно связанных с наблюдением) под давлением общественного мнения и сотрудников, основные контракты на облачные технологии и ИИ остаются в силе, что принесло компании крупные коммерческие заказы, но также нанесло значительный ущерб репутации.

Google Project Nimbus: самый политически рискованный военный облако

С 2021 года Google и Amazon через проект Nimbus предоставляют израильскому правительству и армии унифицированную облачную инфраструктуру на сумму около 1,2 млрд долларов США, включающую вычислительные ресурсы, хранилища и инструменты машинного обучения. Сотрудники, ученые и правозащитные организации продолжают предупреждать:

Универсальные облачные и ИИ-возможности Nimbus легко могут использоваться для наблюдения и выбора военных целей, несмотря на то, что Google официально подчеркивает, что контракт «не включает наступательные военные цели».

На этапе Epic Fury широкое мнение заключается в том, что облачные платформы типа Nimbus являются ключевой вычислительной базой, поддерживающей сложное планирование целей Израиля, моделирование боевых действий и интеграцию разведданных в реальном времени, однако конкретные пути вызова и детали боевых примеров остаются засекреченными.

С точки зрения рисков это означает, что Google обменивает стабильный доход от безопасных клиентов на Ближнем Востоке на «слегка повышенную политическую премию за риск», а волна протестов и уходов сотрудников внутри компании напоминает инвесторам: это не просто обычный корпоративный облачный контракт.

Пять: Израильская фабрика ИИ-убийц: Переносимость логики Lavender

Чтобы понять, как ИИ меняет поле боя, стоит начать с одного из самых спорных израильских систем: Lavender, Gospel и Where’s Daddy.

Исследование +972 Magazine и Local Call показывает:

  • «Lavender» провела анализ поведения и связей почти всех взрослых мужчин в Газе, присвоив каждому «оценку подозрения в причастности к вооруженным формированиям» от 1 до 100 и за короткий срок выделив до 37 000 целей, подозреваемых в членстве в вооруженных организациях;

  • “Gospel” сосредоточен на зданиях и инфраструктуре, автоматически помечая здания, используемые для военных целей, формируя списки для массового бомбардирования ВВС;

  • “Where’s Daddy” отвечает за оптимизацию по временному измерению: отслеживает, когда цели, включенные в список, возвращаются домой, и инициирует удар, когда они находятся вместе с семьей в жилище — это значительно повышает вероятность «успешного устранения», одновременно подвергая семью и соседей высокой смертельной опасности.

Представитель израильских военных разведывательных служб на передовой признал, что человеческая проверка рекомендованных Lavender целей часто сводится к формальному подтверждению в течение нескольких десятков секунд;

Правозащитные организации и эксперты ООН описали эту систему как «высокотехнологичный завод по массовым убийствам», указав на ее структурные проблемы, связанные с усилением алгоритмических предвзятостей, сужением пространства для человеческого суждения и повышением риска жертв среди гражданского населения.

Следует подчеркнуть, что публичные сообщения более однозначно связывают эту систему с войной в Газе, тогда как официальные органы долгое время сохраняли молчание относительно ее конкретного применения на иранском фронте.

Однако с точки зрения технической переносимости, достаточно владеть достаточным объемом коммуникационных данных, траекторий местоположения и социальных графов внутри Ирана, чтобы «перевести» логику Lavender на элиты власти в Тегеране — это не кажется чем-то невозможным, именно поэтому многие аналитики считают, что Epic Fury скорее представляет собой эксперимент по экспорту «алгоритмической фабрики уничтожения в Газе» в столицу суверенного государства.

Шесть: Рынок и регулирование: право ценообразования комплекса ИИ–Облако–Оборона

Сложив эти фрагменты вместе, вы получите картину, очень не «Силиконовая долина»:

  • С одной стороны, компании крупных моделей, такие как OpenAI, готовые на ограниченные уступки на грани, быстро укрепили свои позиции в оборонном бюджете; reuters+2

  • С другой стороны, Anthropic, придерживающаяся более строгих принципов безопасности, была исключена министром обороны под предлогом «рисков в цепочке поставок», что стало для всей отрасли уроком о реальности: «не противостоять единственному покупателю»; axios+5

  • На нижнем уровне находятся гиганты облачных вычислений, такие как Microsoft и Google, которые с помощью кластеров GPU и конфиденциальных облачных сетей создают «операционную систему» современной войны, принимая на себя большую часть денежных потоков от военного ИИ, одновременно неся все возрастающие репутационные и регуляторные риски.

С точки зрения ценообразования активов, это больше не бинарное противостояние между «технологическими акциями» и «оборонными акциями», а новый комплекс AI–Cloud–Defense:

  • На тактическом уровне дешевые дроны-группы, автоматизированное производство целей и системы принятия решений на основе ИИ подрывают традиционное сдерживание крупных держав, делая дорогие истребители пятого поколения и авианосные ударные группы похожими на устаревшие капиталоемкие активы;

  • В отрасли крупные языковые модели и облачные провайдеры получили от военных крайне ограниченный поток контрциклических денежных средств, доступный лишь немногим участникам, и под предлогом «безопасности и конфиденциальности» вошли в прибыльную черную коробку, которую трудно полностью прозрачно регулировать;

  • В политическом плане, когда «кто более сотрудничает с национальной безопасностью» становится решающим фактором при получении ключевых контрактов, приверженность компаний этическим границам систематически ослабевает, и такая структура стимулов будет тихо запомнена будущими предпринимателями и инвесторами.

Поле боя в Иране может быть лишь введением. Независимо от того, где в следующий раз вспыхнет конфликт — на Тайваньском проливе, в Восточной Европе или на другом участке Ближнего Востока, темп войны теперь определяется не количеством танков и калибром орудий, а моделями, обученными на петабайтах секретных данных, и облаками, подключенными к стойкам GPU.

Проблема в том, что до того, как мы все больше и больше передаем цепочки поражения на аутсорсинг нескольким крупным компаниям, занимающимся крупными моделями и облачными технологиями, имеют ли глобальные регуляторы и демократическая политика время всерьез ответить на вопрос: кто несет ответственность за эти решения, когда рекомендации алгоритмов превращаются в координаты взрывов на практике.

Отказ от ответственности: Информация на этой странице может быть получена от третьих лиц и не обязательно отражает взгляды или мнения KuCoin. Данный контент предоставляется исключительно в общих информационных целях, без каких-либо заверений или гарантий, а также не может быть истолкован как финансовый или инвестиционный совет. KuCoin не несет ответственности за ошибки или упущения, а также за любые результаты, полученные в результате использования этой информации. Инвестиции в цифровые активы могут быть рискованными. Пожалуйста, тщательно оценивайте риски, связанные с продуктом, и свою устойчивость к риску, исходя из собственных финансовых обстоятельств. Для получения более подробной информации, пожалуйста, ознакомьтесь с нашими Условиями использования и Уведомлением о риске.