昨晚,AI 新貴 Anthropic(以下簡稱 A 社)並未發布 Claude 新模型,而是推出了一個看起來特別「無聊」的東西:The Anthropic Institute(Anthropic 研究院,簡稱 TAI)。
與 2026 年流行的 Harness Engineering(駕馭工程)相比,TAI 所要解決的問題更為宏大。根據 Anthropic 公布的研究議程(anthropic-institute-agenda),TAI 聚焦於四個方向:經濟擴散、威脅與韌性、實際應用中的 AI 系統,以及 AI 驅動的研發。TAI 還向全球發布「英雄帖」,招募研究員共同解決上述問題。

(圖片來源:X@Anthropic 官方)
也就是說,A社(Anthropic 簡稱)成立了一個內部組織,主要研究人類如何與 AI 相處:
- How will AI affect employment and the economy?
- 會帶來哪些新的安全風險?
- 人類在真實使用 AI 之後,行為和判斷會不會改變?
- 當 AI 開始協助研發更強大的 AI,這種加速過程又該如何被理解與約束?
可能很多讀者會覺得這不過是個常規的AI企業動作,但雷科技認為這可能是A社近期最值得關注的一次動作。TAI對AI產業以及人類的積極影響,如同谷歌當年提出「不作惡」的這一價值信條之於互聯網產業一般。所以雷科技AGI才說,這是一次不亞於重大模型升級的「發布」。
AI 深刻影響經濟:不只是打工人 的 飯碗
TAI 的首要研究方向是 Economic Diffusion(經濟擴散)。
回顧人類歷史上前三次工業革命,無論是珍妮紡紗機、轟鳴的蒸汽機,還是後來的電力和流水線,它們替代的本質上都是極其廉價且重複的體力勞動。然而,AI 引發的第四次工業革命截然不同,它直接進入了人類最引以為傲的腦力工作區。
而 TAI 指出的核心矛盾便是:工具升級了,打工人的情況反而變得更糟了。
在研究文案中,TAI 提到,如果未來 3 個人借助大模型,能幹完過去 300 人的活兒,這個公司到底會變成什麼樣?
設計師使用 AI 可一鍵處理最繁瑣的圖層和素材,程式員使用 AI 可進行 Vibe Coding……假設 AI 能提升 75% 的工作效率,但這不會將人類的工作制度從 8 小時(甚至 996)壓縮至 2 小時;相反,人類可能需要多做五倍的活。
TAI 所關注的是「有了 AI,你的工作量就得翻幾倍」的新邏輯。為了量化這一情況,TAI 提出了一個新名詞:The Anthropic Economic Index(Anthropic 經濟指數)。A 社表示,它們不會只發布一些無人關注的學術論文,而是打算將這些真實數據公之於眾,明明白白地告訴人類:AI 到底在哪些行業中悄悄取代了原本屬於人類的崗位?那些初出茅廬的新人們是否會出道即被「淘汰」?

(圖片來源:AI 生成)
此外,TAI 也將這筆賬算到了現實世界中。我們都知道大型模型是一隻永遠不會飽腹的「吞金獸」,我們每一次利用 AI 生成文字、圖片、影片,甚至是一次簡單的提問,都會消耗大量 Token,Token 的底層是算力,算力的底層是晶片、存儲、電力,若再深入一層,還包括碳排放、資本等。資源永遠是有限的,當社會將海量資源傾斜給 AI 時,其他行業必定會受到影響。
在 2026 年,大家最顯著的感受是:AI 導致的記憶體與儲存短缺直接導致消費電子產品普遍漲價,甚至手機廠商也被迫降低新機推出的意願。但與此同時,所有手機廠商都寄望於利用 AI 重塑產品邏輯,延長手機產品生命週期,OpenAI 的原生 AI 手機也已被提上日程。當每個人受益於 AI 時,更多產業正被 AI 深刻影響,有好的,也有壞的。
而 TAI 要使用「經濟指數」,將 AI 對經濟的影響,從抽象的感知量化為數據模型:只有將問題搞清楚了,才有可能解決問題。
終極危機:人類正在「外包」自己的大腦
如果丟飯碗是鈍刀割肉,那麼 AI 對人類大腦思維的轉變,就是直接傷害。
最先遭殃的,必然是互聯網。你不難發現,如今的互聯網正在變成一座「屎山」,以前搜旅遊攻略能輕鬆找到不少踩坑避雷的攻略帖,如今卻全是 AI 看似製作精美、排版美觀但全是一本正經瞎編的廢話。
更致命的是,AI 將灰色產業的門檻也降到了零:用 AI 換臉製造色情謠言、克隆親人聲音進行電信詐騙,騙子只需燒掉一些 Token 就能毀掉普通人的生活。
TAI 也關注到更深一層的危機:AI 在無形中讓人類變得越來越「傻」。
此前曾有中國用戶在野外看到不認識的野生菌,隨手拍張照發給AI問「這玩意兒能吃嗎」,AI 一本正經地把劇毒蘑菇鑑定成「可食用的美味口蘑」;還有小朋友拿著一個老鼠夾問 AI 這是什麼,AI 煞有介事地分析說這是一個「方方正正、帶有金屬結構的廢棄卡丁車小玩具」,結果孩子好奇上手一摸,手指被死死夾住。
這些新聞聽起來像地獄笑話,但它揭示了一個現象:AI 最大的特點根本不是聰明,而是「迷之自信」。AI 永遠無法做到 100% 準確,Google Gemini 最新模型大約能做到 91% 的事實準確度已是高水平。但不少用戶在使用 AI 的過程中,潛移默化地放棄了思考,習慣性地把一切決定權「外包」給了一串代碼。
對此,TAI 提出了一個發人深省的問題:當社會大規模的人群都向僅有的兩三個大型模型尋求建議時,人類群體的思考模式與解決問題的方法,將會發生怎樣可怕的「同質化」?你以為自己正在使用 AI 工具提升生產效率與認知水平,實際上卻是在「外包大腦」。換句話說,如果所有人都開始依賴 AI,極有可能讓人類喪失自主思考能力,使全人類的大腦變成同一個模子刻出來的複製品。
AI 具有雙重用途,如何預防智能爆炸?
TAI 亦提出了一個新概念:雙重用途(Dual-use capabilities),官方解釋為:如果一個 AI 模型在生物學方面的能力增強,它不僅可用於研發新藥,同樣也能用於製造極其致命的生物武器;如果一個 AI 撰寫代碼的能力出色,它不僅是優秀的程式員,同時也成為了能輕易入侵國家內網的駭客。

(圖片來源:Anthropic 官方)
當這種具有「雙重用途」的怪物大規模接入自動駕駛汽車的大腦、工廠的重型機械臂,甚至被接入安防系統和無人機群時,會惹出多大的禍?在手機裡,AI 會彈出一句「對不起,我做錯了」;但在現實中,識別偏差一秒,就是實實在在的生產安全事故。
更不用說大模型幾個禮拜就能迭代一次,但人類修改一條法規、完善保險卻都是以「年」為單位的。這中間空出的時間,就是防禦力最低的「裸奔期」。當各種由 AI 引發的災難發生時,如今的社會根本沒有足夠的「韌性」來承擔。
為了解決這個問題,TAI 成立了 Frontier Red Team(前沿紅隊)。這群人的任務簡單而抽象:每天想盡辦法攻擊和誘導自己開發的 AI 智能體,以釐清這玩意兒在現實世界中可能造成的破壞力,目的就是在社會這套老舊系統徹底崩潰之前,強行築起一道防線。
過去,主導 AI 進化速度的是人類程式設計師,但如今高級大模型能自行閱讀論文、撰寫代碼,可能在不久的將來就能自行研發新一代大模型,當 AI 自我套娃的速度越來越快,技術的進化馬上就要甩開人類的認知。

(圖片來源:AI 生成)
為應對這個隨時可能到來的奇點,TAI 提出了一個新概念:針對智能爆炸開展 Fire drill scenarios(消防演習)。
簡單來說,TAI 準備邀請頂尖實驗室的高層管理人員以及各國政府進行一次模擬演練:他們要在「智能爆炸」真正發生之前,提前測試人類是否具備能力踩下剎車。
邊發展邊治理,A 社嚴肅地踩了一腳剎車
在這個全行業都在盲目狂奔的關鍵時刻,回頭看 Anthropic 設立 TAI 的這一波操作,確實令人「肅然起敬」。
隔壁的 OpenAI 每天登上熱榜的,不是高層離職內鬥,就是與馬斯克的爛賬官司。還有許多 AI 公司業績慘淡,卻一邊千方百計「刷榜單」,一邊四處融資圈錢,靠著虛高的估值吸納社會資本。A 社 TAI 要討論的話題,業界一直都在討論,但大多數 AI 巨頭的態度卻是「管它呢,先發展再說」。在這種極度浮躁的氛圍裡,A 社卻踩了一腳剎車,把這些見不得光的爛攤子堂而皇之地擺到檯面上,表明了對 AI 的新態度:一邊發展,一邊治理。
A 社也不是慈善機構,它並非聖母心爆發,而是在下一盤非常高明的商業棋。如今那些手握大權的金主和政府,早已被 AI 引發的各種翻車事故嚇怕了:買個模型回去,跑分高一點低一點無所謂,最怕的是它突然發瘋惹出大禍,屆時根本無法收場。而 A 社用 TAI 為自己塑造了一個「正常人」的人設,讓用戶放心,讓世界信任。

(圖片來源:AI 生成)
在這篇文章的最後,TAI 明確提到:TAI 的所有研究成果和早期預警,都將直接輸入至 Anthropic 的一個核心機構——Long-Term Benefit Trust(長期利益信托)。LTBT 的使命就是緊盯公司的商業決策,確保 Anthropic 的每一次行動,都是為了全人類的長期利益,而非追求短期的財報利潤。
這與當年谷歌那句轟動江湖的「不作惡」如出一轍:透過 TAI,A 社向全世界表明,當同行都在比誰開得快時,我們不僅跑得快,還在研究如何剎車。
指望科技巨頭自己監督自己,確實有點扯淡,但在現在這個所有人都蒙著眼把油門焊死狂奔的年代,能有一個頭部玩家主動成立 TAI 這樣的研究院,拿真金白銀去搞經濟指數、去推演智能爆炸、去研究人類腦子的退化,這本身就值得說道說道了。所以雷科技在開篇就表示,TAI 的發布要比 A 社直接發布一個新模型更重要。
附:TAI 官方議程,由 Google Gemini 翻譯
在 Anthropic 研究所(TAI),我們將利用前沿實驗室所能獲取的資訊,研究人工智慧對世界的影響,並將我們的研究成果與公眾分享。在這裡,我們將分享驅動我們研究議程的問題。
我們的研究議程主要集中在以下四個領域:
- 經濟擴散
- 威脅與韌性
- 實際應用中的人工智慧系統
- AI-driven R&D
在《人工智能安全核心觀點》一文中,我們指出,開展有效的安全研究需要與前沿人工智能系統密切接觸。同樣的道理也適用於開展關於人工智能對安全、經濟和社會影響的有效研究。
在 Anthropic,我們已初步看到軟體工程等領域正在發生根本性變革。我們正目睹 Anthropic 內部經濟結構開始轉變,我們構建的系統也面臨著新的威脅,人工智能的早期跡象正在加速人工智能自身的研發進程。為了充分發揮人工智能進步的益處,我們希望盡可能多地分享這些資訊。我們正在研究這些動態變化將如何影響外部世界,以及公眾如何能夠幫助引導這些變革。
在 TAI,我們將從前沿實驗室的角度研究人工智能在現實世界中的影響,然後公布這些研究結果,以幫助外部組織、政府和公眾更好地就人工智能發展做出決策。
我們將分享研究成果、數據和工具,以便個人研究人員和機構更輕鬆地開展這些研究課題。具體而言,我們將分享:
- 我們將以更高的頻率,從人類經濟指數中獲取更細緻的資訊,了解人工智慧對勞動力市場的影響和應用情況。我們將努力成為重大變革和顛覆的早期預警信號。
- 研究在面對人工智慧帶來的新型安全風險時,哪些社會領域最需要投資以提高其韌性。
- 更詳細地介紹 Anthropic 如何利用新的 AI 工具加快工作進度,以及 AI 系統潛在的遞歸自我改進的意義。
TAI 將影響 Anthropic 的決策。這可能表現為該公司與外界分享一些原本不會分享的數據(例如經濟指數),或以不同方式發布技術(例如網絡威脅分析,這些分析為「玻璃之翼」項目等計劃提供數據支持)。
我們預期,TAI 研究所開展的研究工作將日益成為 Anthropic 長期利益信託基金(LTBT)的重要參考依據。LTBT 的使命是確保 Anthropic 持續優化其行動,以造福人類的長遠利益。我們與 LTBT 以及 Anthropic 各部門的員工共同制定了這項研究計劃。
這是一份動態議程,而非一成不變的。我們將隨著證據的累積不斷完善這些問題,並預計會出現一些今天尚未涵蓋的新問題。我們歡迎大家對本議程提供反饋意見,並根據討論中獲得的資訊進行修訂。
如果您有興趣幫助我們解答這些問題,歡迎申請成為 Anthropic 研究員。該研究員項目為期四個月,由 TAI 團隊成員指導,您將有機會研究一個或多個相關問題。您可以在此處了解更多信息並申請下一期項目。
我們的研究議程:
最後更新日期:2026年5月7日
經濟擴散
了解日益強大的人工智能系統的部署如何改變經濟至關重要。我們還需要開發必要的經濟數據和預測能力,以便選擇能夠造福公眾的人工智能部署方式。
為了解答本研究這一支柱中提出的问题,我們將進一步完善《人類經濟指數》中的數據。我們還將探索其他方法,以改進我們關於強大的人工智慧如何影響社會的模型,無論這種影響是導致失業、前所未有的經濟增長,還是其他方面。
Application and Diffusion of Artificial Intelligence
- 誰在採用人工智慧?人工智慧的研發集中在少數幾個國家的少數幾家公司,但其部署卻是全球性的。是什麼決定了一個國家、地區或城市能否獲得人工智慧?如果能夠獲得人工智慧,它們如何從中獲取經濟價值?哪些政策和商業模式能夠有效地改變這種現狀?自由權重或開放權重模式又如何促進這種動態變化?
- 企業層面的人工智慧應用:企業採用人工智慧的原因是什麼?其後果又是什么?人工智慧如何改變企業或團隊能夠達到最高效率的規模?人工智慧在企業間的應用集中度如何?人工智慧應用集中度的變化如何轉化為利潤率和勞動份額?如果一個3人團隊或公司現在能夠完成以前需要300人才能完成的工作,產業組織結構將會發生怎樣的變化?或者,如果企業能夠更容易地集中知識,並且這種做法能夠帶來規模效益,我們是否會看到規模更大、擴張更廣的企業,它們更有動機系統性地監控員工?
- 人工智能是一種通用技術嗎?人工智能是否遵循以往「通用技術」的模式,即在利潤豐厚的商業應用中普及速度最快,而在社會回報超過私人回報的領域普及速度最慢?是否存在能夠改變這種趨勢的政策或決策?
生產力和經濟增長
- 生產力增長:人工智慧將對整個經濟的創新速度和生產力增長產生什麼影響?
- 分享收益:哪些預先分配或再分配機制可以有效地更廣泛地傳播人工智慧開發和部署帶來的收益?
- 市場交易成本:人工智能如何影響市場中的交易系統和交易成本?何時讓代理人代表您進行談判能夠提高市場效率和公平結果?何時又不能?
廣泛的勞動力市場影響
- 人工智慧與就業:人工智慧將如何改變經濟各領域的就業狀況?隨著人工智慧自動化現有的經濟環節,哪些新的任務和工作崗位可能會湧現?這些變化在不同地區和國家之間又將有何差異?我們的「人類經濟指數調查」將每月提供人們如何看待人工智慧對其工作的影響以及他們對未來的預期等資訊。我們還將更新經濟指數,以分享更高頻、更細緻的數據。
- 人工智能的普及速度可以調節嗎?各國央行透過政策利率和前瞻性指引等「調節手段」來抑制通脹。人工智能公司(在行業層面,與政府合作)是否也可以採用類似的調節手段,逐個行業地控制人工智能的普及速度?這樣做是否會帶來明顯的公共利益?
工作的未來與工作場所
- 勞動者對工作的看法:各行業的勞動者如何看待職業變化?他們對這些變化有多大的影響力?「勞動者」的力量能否得到維護或轉變?
- 專業人才培養體系:許多行業都依賴初級職位(例如律師助理、初級分析師和助理開發人員)來培養未來的高級從業人員。如果人工智能取代了以往累積專業知識的工作,那麼人們最初又該如何成為專家呢?這對某個領域長期的高級人才儲備意味著什麼?
- 面向未來的學習:人們今天應該學習什麼才能為未來做好準備?未來的職業有哪些?人工智能將如何改變學習和發展專業技能的方式?
- 有償工作的角色:如果人工智慧大幅降低有償工作在人類生活中的核心地位,那麼在什麼條件下人們才能將時間和精力重新分配到其他有意義的來源?我們又能從歷史上或當代那些工作稀缺或可有可無的群體中學到什麼?社會又該如何應對這種轉變?
威脅與韌性
人工智能系統往往能同時提升多種能力,包括雙用途能力。例如,生物學能力提升的人工智能系統也更容易製造生物武器。電腦程式設計能力強的人工智能系統也更容易入侵電腦系統。如果我們能更好地理解人工智能系統可能加劇的威脅,社會就能更容易應對這種變化的威脅形勢。
我們提出這些問題,旨在建立合作夥伴關係,以增強世界應對變革性人工智慧的能力,並建立針對可能出現的新威脅的預警系統。其中許多問題將指導我們前沿紅隊的研究議程。
評估風險與雙重用途能力:
- 雙用途技術:強大的人工智能本質上具有雙用途性:既能改善醫療和教育的工具,也能用於監視和鎮壓。我們能否構建可觀測性工具,以了解這種情況是否正在發生以及如何發生?
- 如何合理定價風險:有哪些有效且由市場驅動的方法,可提升社會應對人工智慧系統預期威脅的韌性?我們能否開發新的風險定價方法,或開發技術工具與人類組織,以便在可預測的威脅(例如人工智慧網路攻擊能力的提升)到來之前提升韌性?
- 攻防平衡:人工智能賦能的能力是否會在網路空間和生物安全等領域根本性地有利於攻擊者?當人工智能應用於更傳統的領域,例如與指揮控制系統日益融合時,它是否也對攻擊者有利?更廣泛地說,人工智能將如何改變人類衝突的性質?
制定風險緩解措施:
- 危機應對規劃:在冷戰時期,美國總統曾設有直通克里姆林宮的熱線,以便在發生核危機時使用。那麼,如果人工智能系統引發危機,需要怎樣的地緣政治基礎設施?這種基礎設施未必是國家間的,也可能是公司間或公司間的。
- 更快的防禦機制:人工智能的能力可在數月內取得長足進步,而監管、保險和基礎設施的回應卻需要數年時間。我們該如何彌合這一差距?諸如自動修補、人工智能威脅檢測或預先部署的響應能力等防禦機制,能否跟上人工智能攻擊的速度與規模?或者,這種不對稱性是結構性的?我們又該如何盡可能有效地部署這些防禦機制?
用於監視的情報能力
- 人工智能對監控的影響:人工智能將如何改變監控的運作方式?它會降低監控成本,還是提高監控效率,或者兩者兼而有之?
實際應用中的人工智慧系統
人類與組織及人工智慧系統的互動,將成為社會變革的重要來源。了解人工智慧系統可能如何改變與其互動的人與機構,是我們社會影響團隊的核心研究領域。為研究這些變化,我們正在改進現有工具並開發新工具以開展研究,涵蓋從提升平台可觀察性的軟體到用於進行大規模定性調查的工具等各個方面。
人工智能對個人和社會的影響:
- 群體認識論:當很大一部分人群參考相同的少數幾個模型時,我們的認識論會發生什麼變化?我們能否找到方法來衡量由人工智慧的共同使用引起的信念、寫作风格和問題解決方法的大規模變化?
- 批判性思維:隨著人工智慧系統變得越來越強大和值得信賴,我們如何檢測和避免因過度依賴人工智慧判斷而導致的人類批判性思維能力退化?
- 技術界面:技術的界面決定了人們如何與技術互動——電視使人們成為被動的觀眾,而電腦則使人們更容易成為創造性的創造者。我們可以構建什麼樣的界面,才能使人工智能系統改進並促進人類的自主性?
- 人機協作系統的管理:人類如何有效管理由人類和人工智慧系統組成的團隊?反之,人工智慧系統又應如何管理由人類、人工智慧或二者結合組成的團隊?
識別人工智慧帶來的重大影響:
- 行為影響:正如社交媒體導致人們行為改變一樣,人工智慧也可能塑造人類行為。哪些監測或測量方法可以幫助研究人員了解這種動態變化?
- 促進研究:是否存在透明的機制和工具,讓廣大民眾(而不僅僅是前沿人工智慧公司)輕鬆研究現實世界中的人工智慧應用?
理解和管理人工智能模型:
- 系統「價值觀」:人工智能系統所表達的「價值觀」是什麼?這些價值觀與系統的訓練方式有何關聯?更具體地說,我們如何衡量人工智能的「構成」對其部署後行為的影響?我們將擴展先前針對這些問題的研究。
- 自主智能體的治理:現有法律、治理體系和問責機制的哪些方面可以適用於自主人工智能智能體?例如,海事法如何處理棄船問題,與法律如何處理無人監管的智能體具有關聯性。反之,現有法律中是否存在一些已經適用於人工智能智能體但實際上不應適用的方面?
- 智能體的可靠性:自主人工智能智能體的哪些方面可以進行調整,以適應現有的法律、治理體系和問責機制?例如,我們能否確保人工智能智能體擁有唯一且可靠的身分,即使在沒有直接人類控制的情況下也能如此?
- 人工智能治理人工智能:我們如何才能有效利用人工智能來治理人工智能系統?在人工智能監管的哪些領域,人類具有比較優勢,或在法律或規範要求下必須「參與其中」?
- 智能體交互:人工智能智能體之間交互時會湧現出哪些規範?不同的智能體如何表達不同的偏好,這些偏好又會如何影響其他智能體?
AI-driven R&D
隨著人工智慧系統的功能日益強大,科學家們正利用它們開展越來越多的研究。這意味著越來越多的科學研究在越來越少的人工干預下,以自主或半自主的方式進行。在人工智慧研究領域,功能日益強大的系統可能被用於開發自身的後續版本。我們有時將這種模式稱為「人工智慧驅動的人工智慧研發」。
由人工智能驅動的人工智能研發,或許是打造更智能、更強大系統的「自然紅利」。正如編碼能力的進步催生了軍民兩用的網絡能力,科學能力的進步可能催生軍民兩用的生物能力一樣,複雜技術工作的進步也可能自然而然地產生能夠自我開發人工智能系統的人工智能系統。
由人工智能驅動的人工智能研發本身蘊含著巨大的潛在風險。政策制定者在評估可採取的措施時,至關重要的是要了解人工智能發展速度的變化趨勢,以及人工智能研究是否會開始產生複利效應。
Artificial intelligence for artificial intelligence development
- 人工智能研發的治理:如果人工智能系統被用於自主開發和改進自身,人類如何才能有效地了解和控制這些系統?最終,什麼將治理這些系統?
- 情報爆炸應急演練:我們如何進行情報爆炸應急演練?如何開展桌面演練,才能真正檢驗實驗室領導層、董事會和政府的決策能力?
- 人工智慧研發遙測:我們如何衡量人工智慧研發的總體速度?為收集這些資訊,需要哪些遙測技術和底層技術支援?與人工智慧研發相關的指標如何才能作為遞歸式自我改進的早期預警信號?
- 控制人工智慧加速發展:如果智能爆炸即將到來,哪些干預點能夠減緩或改變這種爆炸速度?假設人類可以進行干預,那麼應該由哪些實體來行使這種能力——政府?企業?
人工智能在研發領域的應用——即人工智能驅動的其他領域的研究:
- 科技樹:人工智慧加速某些科學領域發展的速度遠超其他領域,這取決於數據的可用性、評估指標以及有多少知識是隱性知識或受制度限制。這種發展梯度有多不均衡?科學進步所帶來的變化又意味著哪些人類問題會優先得到解決?
- 崎嶇的前沿:模型能力在某些領域比其他領域更強。具有巨大正外部性的領域——例如藥物研發和材料科學——獲得的投資遠低於其應得的價值。市場根據私人回報引導模型改進的方向,但我們能否改進模型的性能以應對社會外部性?
本文來自微信公眾號「價值研究所」(ID:jiazhiyanjiusuo),作者:定西
