Anthropic 總裁在史丹佛演講中強調 AI 時代的人類價值

iconMetaEra
分享
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon精華摘要

expand icon
Anthropic 執行長 Daniela Amodei 在史丹佛大學發言,強調人類價值在 AI 時代的重要性。作為文學專業出身的人,她認為同理心與溝通無法被技術指標取代。Amodei 表示,AI 是輔助而非取代人類工作,並警告過度依賴可能扭曲恐懼與貪婪指數。她補充說,Anthropic 的招聘著重於獨特的人類特質,而不僅僅是技術能力。
從市場結構的視角來看,Anthropic 高層對人文能力的強調並非單純的價值宣示,而是對 AI 產業價值鏈重構的務實回應。

文章作者、來源:今日头条

日前,Anthropic 联合創始人兼總裁 Daniela Amodei 在史丹福商學院做了場 50 分鐘的演講。

與很多 AI 大佬不同的是,她並非 CS 出身,而是一名英國文學專業的文科生。

在分享中,她指出,在硬核技術的盡頭,最稀缺的要素還是那些最古老的人文智慧。

文科通才比 CS 專業更有競爭力

Daniela 於 2009 年畢業時正值金融危機。她自嘲她的履歷看起來像是一部「斷代史」:從國際發展到國會山的政治助理,再到 Stripe 的早期成員。

她認為「職業規劃」往往是成功後的敘事,當時的她只有三個篩選標準:我擅長什麼、我對什麼感興趣、什麼能產生重大影響?

而這種通才背景在 AI 領域竟成了獨特的競爭優勢。

面對神經網絡和 Scaling Law,她的方法極其簡單:不斷提問,直到理解為止。

她深知自己的比較優勢不在於寫代碼,而在於理解「車道」——知道技術專家在哪條路上衝鋒,而自己在哪條路上修橋。

她說,如果人生重來,她依然會選擇文學。

在演講中,Daniela 極力推薦歷史著作《八月炮火》。在她看來,這本書研究的是個體性格如何層層疊加,最終釀成全局性的悲劇後果。

這與她每天在 AI 領域面對的博弈如出一轍——個體的算法決策,如何一步步放大成改變文明的後果。

According to her, when Anthropic hires, it does not place special emphasis on a CS background, but rather on certain humanistic qualities, such as good communication skills, high emotional intelligence, kindness, curiosity, and a willingness to help others.

Daniela 還分享稱,她經常被首席執行官們問:「我女兒在史丹福讀大二,她原本要讀電腦科學,還應該繼續讀嗎?」

她的回答是,軟體開發者仍然會存在,但不會寫那麼多代碼。

因為開發者工作中與產品經理溝通、與客戶協作的部分會擴大,而可以被 AI 更容易完成的部分會收縮。

在共同創業之前,先去度假並共用一個房間

關於如何挑選合夥人,Daniela 提出了一個極具生活氣息的建議:「在共同創業之前,先去度假並共用一個房間。」

She said, if you still want to be with the other person after your vacation, then it’s the right relationship.

2020 年底,Daniela 與哥哥 Dario 帶著五位核心成員離開 OpenAI 創辦 Anthropic,這被外人常解讀為「叛逃」。

她將這段經歷定義為「跑向(Run towards)」,跑向一個從基因上重視安全與責任的組織願景。

據她介紹,Anthropic 的七位聯合創辦人之間擁有深厚的信任網絡:她是 Dario 的親妹妹,兩人爭吵了 40 年,這種隨時可以揭下面具、說出最難聽真話的坦誠,是公司在動盪的 AI 浪潮中不翻船的定海神針。

她還提出了一種反證方法——「房間作畫」實驗。

如果聯合創始人分別在兩個房間畫出公司願景,一個是獨角獸,一個是鴨嘴獸,那這種「對齊」的缺失將是毀滅性的。

AI 對工作更多是補充而非替代

Daniela 表示,目前 AI 在工作中主要扮演「complementary skills」的角色,即協助人們把工作做得更好,而非直接取代。

完全被替代的案例極少,主要集中在客戶服務領域。

她在台上開了個玩笑:如果你要給 Comcast 發郵件,大概永遠都不會是真人回覆了。不過五年前可能也已經不是了。

截至今年 3 月,已有 49% 的職業至少有 1/4 的任務使用 Claude 完成,且高經驗用戶不僅嘗試更高價值的任務,成功率也明顯更高。

但目前大規模替代尚未發生。

她認為,就業替代僅是表層問題;更根本的問題在於,當 AI 能完成大量日常生產性工作後,工作、意義與社交生活三者之間的關係,需要被重新理解。

「這三樣東西在過去幾十年裡是捆綁在一起的,未來它們可能會鬆綁」。但 Daniela 也沒有給出答案,但認為社會需要開始練習適應這種變化。

學習還是作弊?AI 讓人放棄思考

演講中最令人警醒的部分,源於一項覆蓋 8 萬名用戶的調研。

Daniela 發現了一個悖論:人們最依賴 AI 的地方,往往也是他們最害怕的地方。

調查揭示了一種尚未被命名卻普遍存在的焦慮:「大腦不需要啟動了。」

這種感受不同於刷短視頻的被動消耗,而是一種主動的退化——因為 AI 太方便,人類開始選擇放棄尋找自己的想法。

Daniela 坦率地承認,「Claude 也會出錯,但人們開始習慣直接相信它。」

為此,Anthropic 堅持開發「蘇格拉底式提問」的學習模式,試圖激活而非關閉用戶的大腦。

一個尖銳的對比是,把作業丟給 ChatGPT 讓它直接回答,這個行為有一個現成的詞,叫作弊。

而使用 Claude 的學習模式,就像擁有一位了解你、理解你為何選擇這門課的私人導師。

The former shuts down the brain, the latter activates the brain.

She believes that in the AI era, the line between “cheating” and “learning” is thin and worth noting.

Bedside Manner

當 AI 在診斷、編程、管理輔導上全面超越人類時,什麼才是人類不可替代的?

Daniela 給出了一個極其溫暖的答案:「床邊態度(Bedside Manner)」。

她以醫生的職業作類比:未來 AI 的診斷能力必然優於人類,但它無法給予患者那份「被醫生關懷」帶來的臨床奇蹟。

有醫學文獻表明,與醫生關係良好的患者,臨床結果確實優於與醫生關係不佳的患者。這很難解釋,但可能的原因是,醫生更努力去理解患者的狀況,也許會多做一些出乎意料的檢查。

這種理解感受、讓人感覺好一些的能力,在 AI 接管智力活動後,價值將提升 5 倍。

即使在管理崗位上,她也發現 Claude 能透過分析過往的績效評審,敏銳地指出她自己都未意識到的管理盲點,甚至建議她「你需要找個教練」。

她還舉了一個更容易理解的例子。

她有兩個孩子(将近5歲和将近1歲)。她說,Claude 幫她做過最好的事情是,指導她度過孩子的如廁訓練:有同理心、可操作,甚至還有圖示。

每次在 Google 搜尋「我的孩子是不是有問題」,答案永遠是「是」;而 Claude 更平衡、更互動,對不堪重負的父母來說價值巨大。

她表示,在她自己的經歷中,Claude 在複雜病例上提供正確答案的次數,比她的醫生還多。

But even then, she would never take action without a licensed doctor.

做好人、做好事,就能做好生意

面對 2026 年的 AI 泡沫論與資本支出的風險,Daniela 用一個詞形容這種身處風暴中心的感受:Harrowing(膽戰心驚)。

在巨大的不確定性面前,她給下一代創業者留下了兩條建議。

First, do what you truly care about.

她說這聽起來老套到差點不想說出口,但這條建議在事情不順利、不好玩、很痛苦的時候,才顯示出真正的價值。

你必須能回到原點,回憶起我為什麼要做這件事。

Second, doing business and doing good are not contradictory.

她認為這是過去五到十年才真正出現的新觀念。她認為「只有那些冷酷的、讓人不舒服的人才能做成生意」這種想法並不成立。

“行善的願望與做好生意之間存在明顯的正相關。”她說。

免責聲明:本頁面資訊可能來自第三方,不一定反映KuCoin的觀點或意見。本內容僅供一般參考之用,不構成任何形式的陳述或保證,也不應被解釋為財務或投資建議。 KuCoin 對任何錯誤或遺漏,或因使用該資訊而導致的任何結果不承擔任何責任。 虛擬資產投資可能存在風險。請您根據自身的財務狀況仔細評估產品的風險以及您的風險承受能力。如需了解更多信息,請參閱我們的使用條款風險披露