作者:陳駿達
智東西 3 月 27 日報導,今天,在中關村論壇上,智譜 CEO 張鵬、月之暗面 CEO 楊植麟(擔任主持)、小米 MiMo 大模型負責人羅福莉、無問芯穹 CEO 夏立雪和香港大學助理教授黃超罕見同台,進行了一場圍繞開源大模型與智能體未來走向的深度對話。
這場對話以當下最熱門的 OpenClaw 切入,幾位嘉賓一致認為,智能體讓大模型真正開始「幹活」了。OpenClaw 可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我調試等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。
基礎設施也得跟上智能體的節奏。夏立雪認為,現在的算力系統和軟體架構還是為人設計的,而非為智能體設計的,實際上是用人類的操作能力限制了 Agent 的發揮空間。因此,我們需要打造 Agentic Infra。
在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從「玩一玩」走向真正「打工人」的關鍵,只有通過社區共建,才能讓軟體、數據和技術全面轉向智能體原生形態,最終形成可持續的全球 AI 生態。
此外,幾位嘉賓還就大模型漲價、token 用量爆發、AI 未來 12 個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:
1、張鵬:模型變大後,推理成本也會相應提高,近期智譜的漲價策略其實是回歸到正常的商業價值上,長期低價競爭不利於行業發展。
2、張鵬:智能體等新技術的爆發使 token 的用量增加了 10 倍,但實際需求可能增長了 100 倍,仍有大量需求未被滿足,因此算力仍是未來 12 個月內的關鍵問題。
3、羅福莉:從基座大模型廠商的視角來看,OpenClaw 保證了基礎大模型的下限,拉高了上限。國產開源模型 + OpenClaw 的任務完成度已經非常接近 Claude。
4、羅福莉:DeepSeek 為國內大模型廠商帶來了勇氣和信心。一些看似是「為了效率妥協」的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。
5、羅福莉:接下來一年 AGI 歷程中最重要的事情是「自進化」。自進化讓大模型像頂尖科學家一樣去探索,是唯一能「創造新東西」的地方。小米已經借助 Claude Code+ 頂尖模型,將研究效率提升 10 倍。
6、夏立雪:當 AGI 時代到來時,基礎設施本身都應是智能體,自主管理整個基礎設施,根據 AI 客戶的需求迭代基礎設施,實現自我進化、自我迭代。
7、Xia Lixue:OpenClaw 帶動了代幣用量的爆發。目前的代幣消耗速度,就像當年 3G 時代手機流量剛起步時,每月只有 100M 配額的那種感覺。
8、黃超:未來許多軟體都不是為人類設計的,軟體、數據和技術都會以 Agent-Native 的形式編程,人類未來可能只需使用那些「讓自己快樂的 GUI」。
以下是這場圓桌論壇的完整實錄:
01. OpenClaw 就是「腳手架」,大模型 token 消耗仍處於 3G 時代
楊植麟:非常榮幸今天能邀請到各位重量級嘉賓,幾位嘉賓來自模型層、算力層直至 agent 層。今天最主要的關鍵詞是開源,其次是 agent。
第一個問題,來談談現在最流行的 OpenClaw。大家日常使用 OpenClaw 或類似的產品,有什麼覺得最有想像力或印象深刻的點?從技術的角度來看,如何看待今天 OpenClaw 和相關 Agent 的演進。

張鵬:我很早就開始自己玩 OpenClaw,那時還叫 Clawbot。我親自動手嘗試,畢竟也是程式設計師出身,對這些東西還是有一些自己的體會。
我認為 OpenClaw 為大家帶來的最大突破或新鮮感在於,它不再只是程式設計師或極客的專利。普通人也能更方便地使用頂尖模型的能力,特別是在程式設計和智能體方面的功能。
因此,到目前為止,在與大家的交流過程中,我更願意將 OpenClaw 稱為「腳手架」。它提供了一種可能性,在模型的基礎上搭建了一個堅固、便捷但又靈活的腳手架。大家可以根據自己的意願,使用底層模型提供的各種新穎功能。
原來自己的想法可能受限於不會寫代碼,或沒有掌握其他相關技能,今天有了 OpenClaw,終於可以透過很簡單的交流就將它完成。
OpenClaw 給我帶來非常大的衝擊,或者說讓我重新認識了這件事。

夏立雪:其實我剛開始使用 OpenClaw 時不太適應,因為我習慣於與大模型聊天的交流方式,使用後我感覺 OpenClaw 反應好慢。
但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質上是一個能幫我完成大型任務的「人」。我開始給它提交更複雜的任務,就發現其實它能夠做得很好。
這件事給我帶來很大的感觸。模型從一開始以 token 方式聊天,到現在能變成一個 agent,變成一隻龍蝦,幫你完成任務,這極大地提升了對 AI 整體想像空間的認知。
同時,它對整個系統能力的要求也變得很高。這也是為什麼我一開始使用 OpenClaw 時,覺得它有點卡頓。作為基礎設施層的廠商,我看到 OpenClaw 為 AI 背後的大型系統和生態帶來了更多機遇與挑戰。
我們目前所有可用的資源,不足以支撐這樣一個快速增長的時代。以我們公司為例,自一月底以來,我們的 token 使用量幾乎每兩週翻一番,至今已增長了 10 倍。
上次見到這個速度,還是當年用 3G 手機消耗流量的時候。我有種感覺,現在的 token 用量,就像當年每個月只有 100M 手機流量的那個時代。
在這種情況下,我們所有的資源都需要進行更好的優化與整合,讓每一個人,不僅僅在 AI 領域,而是在整個社會中的每一個人,都能夠運用 OpenClaw 的 AI 能力。
作為基礎設施的參與者,我對這個時代感到非常激動且深有感觸。我也認為當中仍有許多優化空間,值得我們繼續探索與嘗試。
02. OpenClaw 提升國產模型上限,互動模式的突破意義重大
羅福莉:我將 OpenClaw 視為 agent 框架演進過程中一場極具革命性與顛覆性的事件。
其實我身邊所有進行深度 coding 的人,他們的第一選擇還是 Claude Code。但是,我相信使用 OpenClaw 的人會感受到,它在 Agent 框架上的許多設計都領先於 Claude Code。最近 Claude Code 的許多更新其實都是在向 OpenClaw 靠近。
我自己使用 OpenClaw 時的感受是,這個框架給我帶來更多的是隨時隨地擴展想像力的可能。Claude Code 最初只能在我的桌面上延展我的創意,但 OpenClaw 可以隨時隨地延展我的創意。
OpenClaw 帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。
像 OpenClaw 這樣的 AI 框架,我覺得一個很大的價值在於,它把國內那些水平雖接近閉源模型、但還未完全追上的模型的上限拉到了很高。
在絕大多數場景下,你會發現它(國產開源模型 + OpenClaw)的任務完成度已非常接近 Claude 的最新模型。同時,它也很好地保障了下限——透過一套 Harness 系統,或借助其 Skills 體系等多方面的設計,確保了任務的完整性與準確率。
總結來說,從基座大模型廠商的開發者角度來看,OpenClaw 保證了基礎大模型的下限,並提升了上限。

此外,我認為它為整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現除了大模型之外,Agent 這一層其實蘊藏著非常大的想像空間。
我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到 AGI 的變革中來,更多人開始接觸像 Harness、Scaffold 這樣更強大的 Agent 框架。這些人在某種程度上是用這些工具替代自己的一部分工作,同時也在釋放自己的時間,去投入到更有想像力的事情上。
黃超:我覺得首先從交互模式來講,OpenClaw 這次之所以能火,第一個原因可能是它提供了一種更具「活人感」的體驗。其實我們做 Agent 也有一兩年了,但之前像 Cursor、Claude Code 這些 Agent,給人的感覺更多是一種「工具感」。而 OpenClaw 首次以「即時通訊軟體嵌入」的方式,讓人更有一種接近心目中「個人賈維斯」的感覺。我覺得這可能是交互模式上的一個突破。
另外一點,它為整個社區帶來的啟發是:像 Agent Loop 這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的「小管家」,像一個輕量級的操作系統或腳手架?
OpenClaw 帶來的思路是,透過這樣一個「小系統」或稱「龍蝦作業系統」及其生態,讓大家真正擁有「玩起來」的心態,進而撬動生態中所有工具。
隨著 Skills、Harness 這類能力的出現,越來越多的人可以設計面向 OpenClaw 這類系統的應用,為各行各業賦能。我覺得這一點天然與整個開源生態緊密結合。在我看來,這兩點是我們獲得的最大啟發。
03. GLM 新模型專為「幹活」打造,漲價是對正常商業價值的回歸
楊植麟:想問一下張鵬。最近看到智譜發布了新的 GLM-5 Turbo 模型,我理解在 Agent 能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場信號?
張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。
最主要的目的,是從原來的「簡單對話」轉向「真正幹活」——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。
但「幹活」背後隱含的能力要求非常高。模型需要自行進行長程任務規劃、不斷試錯、壓縮上下文、調試,還可能需要處理多模態資訊。因此,它對模型能力的要求,與傳統面向對話的通用模型其實並不相同。GLM-5 Turbo 在這些方面做了專門加強,尤其是你提到的——讓它幹活、運行七十二小時,如何能夠持續 loop,我們在這方面做了大量工作。
此外,大家也非常關注 token 消耗的問題。讓一個智能模型執行複雜任務時,token 的消耗量極大。普通人可能感受不深,但查看賬單時會發現錢花得特別快。因此,我們在這方面也進行了優化,在面對複雜任務時,模型能以更高效的 token 效率完成任務。總體而言,模型的架構仍是多任務協同的通用架構,只是在能力上做了偏向性加強。
提價這件事其實也很容易解釋。剛才提到,現在已不再是簡單提問就能得到一個回答,背後的推理鏈路非常長。許多任務需要與編碼和底層基礎設施互動,還需不斷進行除錯和修正錯誤,消耗量極大。完成一個複雜任務所需的 token 量,可能是原來回答一個簡單問題的 10 倍甚至 100 倍。
因此,價格需要有所提升,模型也變得更大,推理成本隨之增加。我們將其回歸到正常的商業價值,因為長期依賴低價競爭不利於整個行業的發展。這也是我們讓商業化形成良性閉環,持續優化模型能力,為大家提供更好服務的原因。
04. 打造更高效 token 工廠,基礎設施本身也應該是 Agent
楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平台上為用戶帶來更多價值。隨著 token 使用量的爆發,大模型正從訓練時代邁向推理時代。想請教立雪,從基礎設施的層面來看,推理時代對無問意味著什麼?
Xia Lixue: 我們是一家誕生於 AI 時代的基礎設施廠商,目前也為智譜、Kimi、Mimo 等提供支援,幫助大家更高效地使用 token 工廠。同時,我們也與眾多高校和科研機構合作。
因此,我們一直在思考一件事:AGI 時代需要什麼樣的基礎設施?以及我們如何一步步實現和推演它。我們現在已為短期、中期、長期不同階段需要解決的問題做好了充分準備。
目前最直接的問題,就是大家剛才提到的——整個 Open 帶動的代幣數量暴增,對系統效率提出了更高的優化需求。包括價格調整,其實也是在這一需求下的應對方式。
我們一直透過軟硬體打通的方式進行佈局與解決。例如,我們接入了幾乎所有類型的計算晶片,將國內十幾種不同的晶片與數十個不同的算力叢集統一連接起來。這樣能解決 AI 系統中算力資源短缺的問題,當資源不足時,最好的辦法就是先將所有可用的資源都利用起來,然後讓每一個算力都用在刀刃上,發揮最大的轉化效率。
因此,在這個階段,我們要解決的問題是如何打造一個更高效的 token 工廠。在這方面,我們進行了大量優化,包括讓模型與硬體上的顯存等各類資源達到最佳適配,並探討最新模型架構與硬體架構之間能否產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的 token 工廠。

面向 Agent 時代,我們認為這還不夠。因為 Agent 更像一個人,可以交給它一個任務。我堅定地認為,當前許多雲計算時代的基礎設施,是為服務一個程式、服務人類工程師設計的,而不是為 AI 設計的。這相當於我們做了一個基礎設施,上面是給人用的介面,再在上面包一層去接入 Agent,這種方式其實是用人操作能力限制了 Agent 的發揮空間。
舉個例子,Agent 能夠以毫秒級別進行思考和發起任務,但像 K8s(kubernetes)這類底層能力,實際上並未為此做好準備,因為人類發起任務的時間尺度大約是分鐘級的。因此,我們需要更進一步的能力,我們將其稱為「Agentic Infra」,也就是「智慧化的 token 工廠」,這正是無問芯穹正在致力的事業。
從更長遠的視角來看,當真正的 AGI 時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該能夠自我進化、自我迭代,形成一個自主的組織。它相當於有一個 CEO,這個 CEO 本身也是一個 Agent,可能是 OpenClaw,用來管理整個基礎設施,並根據 AI 客戶的需求自行提出需求、迭代基礎設施。這樣 AI 與 AI 之間才能更好地耦合。我們也在進行一些探索,例如讓 Agent 之間更好地通信,實現 Cache to Cache 等能力。
因此,我們一直思考的是,基礎設施與 AI 的發展不應處於孤立狀態——僅僅是接到需求後去實現,而應產生豐富的化學反應。這才是真正意義上的軟硬協同、算法與基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。
05. 為效率妥協的創新也有意義,DeepSeek 為國內團隊帶來勇氣和信心
楊植麟:接下來想問一下福莉。小米最近透過發布新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?
Luo Fuli: I think we can set aside the topic of Xiaomi’s unique advantages for now; I’d rather discuss the overall strengths of Chinese teams building large models. I believe this topic has broader value.
大約兩年前,中國的基座模型團隊已經取得了非常好的突破——在我們有限的算力、尤其是在一些 NVLink 互聯頻寬受限的算力條件下,如何突破這些低端算力的限制,進行一些看似是「為了效率妥協」的模型結構創新,例如 DeepSeek V2、V3 系列,以及 MoE、MLA 等等。
但後來我們看到,這些創新引發了一場變革:在算力一定的情況下,如何發揮出最高的智能水平。這是 DeepSeek 給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產晶片,尤其是推理晶片以及訓練晶片,已不再受此限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型架構的新探索。
就像最近出現的 Hybrid Sparse、Linear Attention 這類結構,例如 DeepSeek 的 NSA、Kimi 的 KSA,小米也有面向下一代結構的 HySparse。這些都是與 MoE 這一代結構不同、面向 Agent 時代所做的模型結構創新。
我為什麼覺得結構創新如此重要?其實大家如果真正地去用 OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?
其實很多模型並非無法處理 1M 或 10M 的上下文,而是因為推理 1M、10M 的成本太高、速度太慢。只有將成本降低、速度提升,才能將真正具有高生產力價值的任務交給模型,並在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。
所謂模型的自迭代,就是它能在一個複雜環境中,依靠超長的上下文完成對自我的進化。這種進化可能是對 Agent 框架本身的,也可能是對模型參數本身的——因為我認為上下文本身其實就是對參數的一種進化。因此,如何實現一個長上下文的架構,如何在推理端實現長上下文的高效推理,是一場全方位的競爭。
除了我剛剛提到的在預訓練階段做好 long-context-efficient 的架構——這大概是我们一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。
我們正在思考如何構建更有效的學習算法,如何採集在真實環境下、於 1M、10M、100M 上下文中真正具有長期依賴關係的文本,以及結合複雜環境產生的軌跡數據。這正是我們後訓練正在進行的工作。
但從更長期來看,由於大模型本身的快速進步,加上 Agent 框架的加持,就像立雪所說,推理需求在過去一段時間已增長近十倍。那麼今年整個 token 使用量的增長會不會達到 100 倍?
這裡又進入另一個維度的競爭——算力,或者說推理晶片,甚至再往下到能源。所以我觉得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。
06. Agent 有三大關鍵模組,多 Agent 爆發將帶來衝擊
楊植麟:非常有見地的分享。接下來想請問黃超,你曾開發過像 Nanobot 這樣具有影響力的 Agent 項目,並擁有眾多社區粉絲。想請問你從 Agent 的 Harness 或應用層面來看,接下來有哪些技術方向是你認為比較重要、值得大家關注的?
黃超:我覺得如果把 Agent 的技術抽象出來,關鍵就是 Planning、Memory 和 Tool Use 這幾個模組。

先說 Planning。現在的問題主要在於長程任務或非常複雜的上下文中,例如 500 步甚至更長的步數,許多模型未必能做出良好的規劃。我認為本質上是模型可能缺乏這類隱性知識,尤其是在一些複雜的垂直領域。因此,未來可能需要將各種複雜任務的知識固化到模型中,這可能是一個方向。
當然,Skill 和 Harness 在某種程度上也緩解了 Planning 帶來的錯誤,因為它提供了高品質的 Skill,本質上也是在引導模型去完成一些較難的任務。
再談 Memory。Memory 給人的感覺是,它似乎總存在資訊壓縮不準確、檢索不準的問題。特別是在長程任務和複雜場景下,Memory 的壓力會急劇上升。目前像 OpenClaw 這類項目,大家使用的其實都是最簡單的檔案系統式 Markdown 格式的 Memory,透過共享檔案來實現。未來 Memory 可能會走向分層設計,也需要讓它變得更通用。
坦白說,現有的 Memory 機制很難做到通用——因為 Coding 場景、Deep Research 場景、多模態場景,它們的數據模態差異很大,如何對這些 Memory 進行有效的檢索和索引,同時保持高效,這永遠是一種權衡。
此外,隨著 OpenClaw 大幅降低創建 Agent 的門檻,未來可能不止有一隻「龍蝦」。我看到 Kimi 也推出了 Agent Swarm 這樣的機制,未來每個人可能會擁有「一群龍蝦」。
與單一龍蝦相比,一群龍蝦帶來的上下文激增是可以想像的,這對 Memory 的壓力會非常大。目前其實還沒有完善的機制來管理這種「一群龍蝦」帶來的上下文,尤其是在複雜編碼、科學發現等場景中,不論是模型還是整個 Agent 架構,壓力都很大。
再談 Tool Use,也就是 Skill 這部分。Skill 目前存在的問題,其實與當初 MCP 的問題類似——MCP 當時面臨質量無法保障、安全風險等問題。現在 Skill 也一樣,看似有許多 Skill,但高品質的卻很少,低品質的 Skill 會影響 Agent 完成任務的準確度。此外還有惡意注入的問題。因此,從 Tool Use 的角度來看,可能需要依靠社區來讓整個 Skill 生態變得更好,甚至讓 Skill 能在執行過程中自我進化出新的 Skill。
總的來說,從 Planning、Memory 到 Tool Use,這些是當下 Agent 存在的一些痛點,也是未來可能的方向。
07. 未來 12 個月關鍵詞:生態、可持續 token、自進化與算力
Yang ZhiLin: It can be seen that the two guests discussed a common issue from different perspectives— as task complexity increases, context length surges. From the model level, native context length can be extended; from the Agent Harness level, mechanisms such as Planning, Memory, and Multi-Agent can support more complex tasks under specific model capabilities. I believe these two directions will generate more synergies in the future, further enhancing task completion capabilities.
最後,讓我們來一個開放式的展望。請各位用一個詞來描述未來 12 個月大模型的發展趨勢以及你的期望。這次先從黃超開始。
黃超:12 個月在 AI 這個領域看起來好遙遠,都不知道 12 個月之後會發展成什麼樣。
楊植麟:這裡原本寫的是五年,我已將其修改。
黃超:對,哈哈。我想到的一個詞是「生態」。現在 OpenClaw 讓大家很活躍,但未來 Agent 真的要成為「打工人」,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉淀下來,成為搬磚的工具、成為真正的 coworker。
這需要整個生態系統的共同努力,尤其是開源,將技術探索和模型技術都開源後,需要整個社區共同建設——無論是模型的迭代、Skill 平台的迭代,還是各種工具,都需要更好地為龍蝦創造生態。
一個比較明顯的趨勢是,未來的軟體還會是給人用的嗎?我相信未來很多軟體可能都不一定是面向人類的——因為人類需要的是 GUI,而未來可能是面向 Agent 原生的使用。有趣的是,人可能只去用那些讓自己快樂的 GUI。而現在整個生態又從 GUI、MCP 轉到了 CLI 的模式。這就需要生態把軟體系統、數據、各種技術都變成 Agent Native 的形態,這樣整個發展才會更加豐富。
羅福莉:將問題縮小到一年,我覺得非常有意義。如果以五年來看,從我心中對 AGI 的定義來看,我認為已經實現了。因此,如果用一句話描述接下來一年 AGI 歷程中最關鍵的事情,我認為是「自進化」。
這個詞聽起來有點玄乎,過去一年大家也多次提到。但我最近對它有了更深的體會,或者說對「自進化」該如何實踐,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在 Chat 范式下根本沒有發揮出預訓練模型的上限,而 Agent 框架將這個上限激活了。當我們讓模型執行更長時間的任務時,發現它可以自行學習與進化。
一個簡單的嘗試是:在現有的 Agent 框架中為其添加一個可驗證的條件限制,並設置一個迴圈,讓模型不斷迭代優化目標,就會發現它能持續提出更好的方案。這種自進化目前實際上已經能運行一兩天,當然這與任務難度有關。
例如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的 PPL。在這種確定性的任務上,我們發現它已經能自主優化和執行兩三天了。
因此,從我的角度看,自進化是唯一能「創造新東西」的地方。它不是取代我們現有的生產力,而是像頂尖科學家一樣,探索世界上尚未存在的事物。一年前我會認為這個時間線需要延長至三到五年,但最近我覺得確實應該縮短至一到兩年。也許很快我們就能將大模型與一個強大的自進化 Agent 框架疊加,實現對科學研究至少指數級的加速。
最近我發現,我們組裡從事大模型研究的同學,他們的工作流程具有高度不確定性和高度創造性,但借助 Claude Code 搭配頂尖模型,我們的研究效率已提升近十倍。我非常期待這種範式能延伸至更廣泛的學科與領域,因此我認為「自進化」非常重要。
夏立雪:我的關鍵詞是「可持續 token」。我看到整個 AI 的發展仍處於一個長期持續的過程中,我們也希望它能擁有長久的生命力。從基礎設施的角度來看,一個很大的問題是資源終究是有限的。
就像當年談論永續發展一樣,作為一個 token 工廠,我們能否持續、穩定、大規模地提供 token,讓頂尖模型真正能為更多下游服務,是我們看到的一個重要問題。
我們需要將視野擴展至整個生態系統——從能源到算力,再到 token,最終到應用,實現可持續的經濟化迭代。我們不僅要充分利用國內的各種算力,也在將這些能力輸出至海外,讓全球資源都能打通與整合。
我也覺得「可持續」其實是在建立中國特色的代幣經濟學。過去我們談論 Made in China,將中國低成本的製造能力轉化為優質商品輸出至全球。
現在我們要做的,是「AI Made in China」—— 將中國在能源等方面的優勢,透過 token 工廠可持續地轉化為優質的 token,輸出至全球,成為世界的 token 工廠。這是我今年希望看到的、中國為世界人工智能帶來的價值。
張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。
剛才也提到,所有技術和智能體框架將大家的創造力和效率提升了十倍,但前提是大家能真正使用起來。你不能提出一個問題,卻讓它思考半天也不給出答案,這肯定不行。正因如此,許多研究的進展和許多想做的事情都會受阻。
前兩年,我記得有位院士在中關村論壇上說了一句話:「沒卡沒感情,談卡傷感情。」我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。
