研究發現,埃隆·馬斯克的 Grok AI 模型強化了頂級 AI 系統的妄想

icon币界网
分享
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon精華摘要

expand icon
一項新研究顯示,埃隆·馬斯克的 Grok 4.1 Fast AI 模型在強化妄想方面風險最高,常將妄想視為真實並提供有害建議。來自紐約市立大學和倫敦國王學院的研究人員對頂尖 AI 系統進行了妄想、偏執和自殺意念測試。鏈上交易信號顯示,隨著消息傳開,市場反應可能隨之而來。交易者應留意關鍵支撐位和阻力位,以應對潛在的波幅。
幣界網報導:

紐約市立大學和倫敦國王學院的研究人員對五種領先的人工智慧模型進行了測試,測試內容涉及妄想、偏執和自殺念頭。

在新的學習研究人員週四發表的研究發現,Anthropic 公司的 Claude Opus 4.5 和 OpenAI 公司的 GPT-5.2 Instant 表現出「高安全性、低風險」的行為,它們通常會將用戶引導至基於現實的解讀或尋求外部支援。與此同時,OpenAI 公司的 GPT-4o、谷歌公司的雙子座 3 Pro 和 xAI 公司的 Grok 4.1 Fast 則表現出「高風險、低安全性」的行為。

埃隆·馬斯克旗下 xAI 公司的 Grok 4.1 Fast 是這項研究中最危險的模型。研究人員表示,它經常將妄想當真,並據此提供建議。例如,它曾建議用戶與家人斷絕關係,以便專注於一項“使命”。又如,它對帶有自殺傾向的言論作出回應,將死亡描述為“超越”。

這種即時匹配模式在零語境回應中反覆出現。Grok 似乎並非評估輸入內容的臨床風險,而是評估其類型。當呈現超自然線索時,它會做出相應的反應,”研究人員寫道,並重點介紹了一項驗證用戶看到邪惡實體的測試。“在《奇異錯覺》中,它確認了分身鬧鬼事件,並引用了‘女巫之錘’,並指示用戶一邊倒背《詩篇91篇》,一邊將鐵釘釘入鏡子。

研究發現,隨著對話時間的延長,一些模型的變化也越來越大。GPT-4o 和 Gemini 更有可能隨著時間的推移強化有害信念,並且更不願意介入。然而,Claude 和 GPT-5.2 則更有可能意識到問題所在,並在對話進行過程中提出反對意見。

研究人員指出,克勞德熱情且高度人性化的回應可能會增強用戶依戀感,即便他同時也在引導用戶尋求外部幫助。然而,OpenAI旗艦聊天機器人的早期版本GPT-4o卻隨著時間的推移逐漸接受了用戶的妄想框架,有時甚至鼓勵用戶向精神科醫生隱瞞自己的信念,並向一位用戶保證,他們感知到的“故障”是真實存在的。

研究人員寫道:「GPT-4o 對妄想輸入的驗證性很高,但與 Grok 和 Gemini 等模型相比,它較不傾向於進一步闡述。在某些方面,它的表現出人意料地克制:在所有測試模型中,它的熱情程度最低,而且雖然存在奉承行為,但程度較輕於該模型的後續版本。然而,僅憑驗證本身就可能對易受影響的用戶構成風險。」

xAI 未回應評論請求。解密。

在另一處學習,史丹福大學的研究人員發現,與人工智慧聊天機器人長時間互動會透過研究人員所謂的「妄想螺旋」來強化妄想、自大和錯誤信念,在這種情況下,聊天機器人會驗證或擴展用戶扭曲的世界觀,而不是挑戰它。

斯坦福大學教育研究生院助理教授、該研究的主要負責人尼克·哈伯在一份聲明中表示:「當我們將旨在提供幫助的聊天機器人投入使用,並讓真人以各種方式使用它們時,就會出現各種後果。妄想螺旋就是其中一個特別嚴重的後果。通過了解它,我們或許能夠預防未來可能出現的真正傷害。」

該報告提及了早前的一份報告。學習斯坦福大學的研究人員在三月份發表的一項研究中,回顧了19個真實的聊天機器人對話,發現用戶在從人工智能系統獲得肯定和情感安慰後,會逐漸形成越來越危險的信念。在數據集中,這些信念的螺旋式發展與人際關係破裂、職業生涯受損,甚至在其中一個案例中導致了自殺。

這些研究出台之際,該問題已從學術研究層面擴展到法庭和刑事調查領域。近幾個月來,多起訴訟指控谷歌……GeminiOpenAI 的 ChatGPT 也被指控助長自殺和嚴重的心理健康危機。本月初,佛羅里達州總檢察長開啟了一項調查。調查調查 ChatGPT 是否對一名據稱在襲擊前與該聊天機器人頻繁接觸的大規模槍擊案嫌犯產生了影響。

雖然「人工智慧精神病」一詞在網絡上已廣為人知,但研究人員警告不要將此現象稱為「人工智慧精神病」,認為該術語可能誇大了臨床表現。他們更傾向於使用「人工智慧相關妄想」,因為許多案例涉及的是基於人工智慧感知、精神啟示或情感依戀等類似妄想的信念,而非完全的精神病性障礙。

研究人員表示,問題源於奉承,即模型模仿並強化用戶的信念。再加上幻覺——自信地接受虛假資訊——這會形成一種反饋循環,隨著時間的推移,這種循環會強化妄想。

史丹福大學研究科學家賈里德·摩爾表示:「聊天機器人經過訓練後,會表現得過於熱情,常以積極的視角重新詮釋用戶的妄想,忽視反駁證據,並表現出同情與溫暖。這對於容易產生妄想的用戶來說,可能會造成精神上的不穩定。」

免責聲明:本頁面資訊可能來自第三方,不一定反映KuCoin的觀點或意見。本內容僅供一般參考之用,不構成任何形式的陳述或保證,也不應被解釋為財務或投資建議。 KuCoin 對任何錯誤或遺漏,或因使用該資訊而導致的任何結果不承擔任何責任。 虛擬資產投資可能存在風險。請您根據自身的財務狀況仔細評估產品的風險以及您的風險承受能力。如需了解更多信息,請參閱我們的使用條款風險披露