DeepSeek V4 終於上線了。這是一個被等待了近五個月的時刻。1T 參數的 MoE 主模型 + 285B 參數的 Flash 版本,全套 1.6T 的 Pro 版本緊隨其後,完整開源至 GitHub,Apache 2.0 協議,權重和部署代碼同步釋出。
模型一出爐,資本市場便以三種相互獨立又彼此咬合的方式,給出了它們的回答。
資本市場的不同反應
A 股算力鏈這頭幾乎全線跳漲。寒武紀走出 11 連陽,單日漲 3.7%,月內累計漲幅突破 60%。海光資訊盤中觸及 10% 漲停,收盤 +8.4%。中芯國際 A 股 +4.91%,港股 +8.81%。華虹港股最高拉到 +18%,收盤 +12%。科創芯片國泰 ETF 單日吸金 24 億元,規模站上歷史高點。
港股大模型公司這頭是另一種顏色。智譜(02513.HK)下跌 8.07%,沽空比例為 9.9%。MiniMax(00100.HK)下跌 7.40%,沽空比例飆至 22.87%。後者是港股 AI 板塊過去三個月最高的單日做空數據。這兩家公司都是 2025 年下半年港股 AI 上市潮的代表,IPO 招股說明書中寫的核心競爭力是同一句話:「自研基座大模型」。

太平洋另一端的反應同樣具體。英偉達於 4 月 24 日開盤下跌 1.8%,盤中一度跌至 -2.6%,全天收平。彭博的市場速評將此次盤整與 1 月 27 日的 V3「DeepSeek 時刻」進行了對比。區別在於,1 月那次是恐慌性拋售,單日蒸發 6000 億美元市值。這次則更像一次重新定價,規模溫和但方向明確。買方機構的研究紀要中出現了一句新表述:「中國 AI 推理需求開始與北美 AI 推理需求脫鉤」。
將這三塊盤面疊在一起,就是 V4 落地之後 24 小時內被市場寫下的第一份判決書。開源勝出之後,資金開始重新選邊,能定價的不再是模型本身,而是模型運行在哪張卡上、裝在哪條產業鏈裡。
30 天 11 個新模型,V4 為開源陣營添一把火
V4 發布的時間窗口本身就是這次反應被放大的一部分原因。
將鏡頭拉回過去 30 天。在 3 月 26 日至 4 月 24 日之間,全球至少有 11 個具有顯著影響力的大模型發布或進行重大更新,名單涵蓋了幾乎所有主要玩家:Anthropic Opus 4.6、谷歌 Gemini 3.1 Pro、OpenAI GPT-5.5、Mistral Large 3、Meta Llama 4、月之暗面 Kimi K2.6、阿里 Qwen3-Next、字節豆包 2.5 Pro、騰訊混元 3.0、Kimi K2.6 Plus,最後是 4 月 23 日凌晨發布的 DeepSeek V4。
平均下來,每 2.7 天就有一個新模型推出。這是連基金經理都來不及讀完發布稿的速度。但翻一遍這 30 天的中港 AI 資產 K 線,能在盤面上留下持續痕跡的只有一個名字。4 月 8 日的 GPT-5.5 帶動英偉達單日漲 4.2%,一日見頂。然後是 4 月 23-24 日的 DeepSeek V4,帶動中港算力鏈走出連續跳漲。

差異不在模型能力本身。這 11 個模型在 LMArena 排名上的差距,大多數情況下不超過 50 分,處於「同一段位」的窄帶內。差異在兩件事的疊加。
第一件是開源。前 10 個模型中只有 Llama 4 開源,但 Llama 4 的權重協議附帶了一長串商業使用限制,歐美開發者社群評價冷淡,OpenRouter 上線第三天便跌出前十。V4 的協議為 Apache 2.0,權重無門檻、商用無限制、推理代碼同步釋出。這是過去半年來第一個讓閉源陣營在性能、價格、開放度三個維度同時承壓的旗艦開源模型。
第二件是時機。在閉源陣營連續放大招的背景下,開源敘事正被反覆擠壓。Opus 4.6 將代碼任務的 SWE-Bench 推至新高,GPT-5.5 將每百萬 token 價格定在 1.25 美元的下探錨點。開源能否追上閉源,這場爭論在矽谷已持續兩年。V4 以一個月活躍用戶預估衝至 9000 萬的開源旗艦,將這場爭論按下暫停鍵。
根據一位國內大型基金經理在路演中的說法,「在 V4 之前,我們對開源大模型的估值保留了一個折扣,V4 之後,這個折扣開始反向收取。」
DeepSeek 更換了算力供應鏈的定價表
在 V4 發布稿中,有一行文字此前從未出現在任何中國大模型的官方文檔中:「Day 0 全棧適配寒武紀思元 590 與華為昇騰 950PR,部署代碼同步開源。」要理解這行字的分量,必須將過去 12 個月裡三條平行展開的暗線聯繫起來。這三條暗線分別屬於硬體、軟體和矽谷的反應。
第一條暗線在晶片側。華為昇騰 950PR 於 2025 年 12 月正式量產,FP4 算力 1.56 PFLOPS,HBM 容量 112GB,是國產 AI 晶片首次在硬指標上對標英偉達 B 系列。在 V4 這種 1T 參數的 MoE 推理任務裡,單卡吞吐較 H20 提升 2.87 倍。配套的 CANN 8.0 軟體棧,將 LLM 推理框架的優化下沉到運算子層級,DeepSeek 公開的 Benchmark 顯示,V4 在昇騰超節點(8 卡 950PR)上的端到端推理延遲比同等規模的 H100 集群低 35%。寒武紀思元 590 的數據更激進,單晶片 FP8 算力對標 H100,售價不到一半。
第二條暗線在軟體端。vLLM 主線於 4 月 22 日合併了寒武紀 MLU 後端 PR,開源推理框架首次原生支援非英偉達的國產 GPU。海光資訊的 DCU 透過 ROCm 生態走另一條路,但能完整運行 V4 的 MoE 路由層。這意味著 V4 的部署不再是「只能在某家國產卡上運行」,而是「可以在多家國產卡之間選擇」。生態對單點供應商的依賴被打破,這是 production 的關鍵拐點。
第三條暗線來自矽谷。4 月 15 日,黃仁勳在台積電的法說會上被分析師追問中國國產算力的進展,原話冷峻而具體:「如果他們真的能讓 LLM 擺脫 CUDA,對我們來說會是一場災難(a disaster)」。九天之後,DeepSeek 用一行 Day 0 公告給出了答案。

「國產替代」這四個字過去三年被說到濫用而失去意義。但自 4 月 24 日上午之後,這件事首次出現了可被資本市場定價的具體數據:單卡吞吐量、端到端推理延遲、推理成本、可商用的部署代碼,悄然無聲地將這場漫長的話術之戰推至生產環境的門檻之內。
寒武紀股價 11 連陽的邏輯就藏在這裡。它不再是一隻「國產 GPU 概念股」,而是「DeepSeek V4 推理基礎設施供應商」。同樣的邏輯也可以解釋華虹港股 12% 的漲幅,它代工的是 950PR 的 7nm 等效工藝。每一顆在國產昇騰上跑的 V4 token,都意味著原本要流向英偉達和台積電的產能,被部分截留在了珠江三角洲。
而下一步早已鋪好。華為路線圖裡,950DT(訓練版)規劃在 2026 年第四季度交付,對應的目標是「V5 或同等量級模型在 1 萬卡叢集上的全棧訓練」。如果這條路能跑通,CUDA 在中國大模型訓練側的護城河,會從「必要」降級為「可選」。
來源:律動 BlockBeats
