Bài viết | Sleepy.txt
Năm 2016, The New Yorker đã viết một bài đặc biệt về Sam Altman với tiêu đề “Số phận của Sam Altman”. Năm đó, anh 31 tuổi và đã là chủ tịch của Y Combinator, nhà ươm tạo có ảnh hưởng nhất tại Thung lũng Silicon.
Trong bài viết có một chi tiết nhỏ nói rằng Ultraman thích đua xe, sở hữu năm chiếc xe thể thao và thích thuê máy bay để lái. Anh ấy nói với phóng viên rằng mình có hai chiếc túi, trong đó có một chiếc là túi thoát hiểm luôn sẵn sàng để chạy trốn.
Anh ấy còn chuẩn bị súng, vàng, kali iodua (để phòng bức xạ hạt nhân), kháng sinh, pin, nước, mặt nạ phòng độc tiêu chuẩn quân đội Israel, đồng thời sở hữu một mảnh đất tại Big Sur (một điểm du lịch ven biển nổi tiếng ở California), nơi có thể bay đến bất cứ lúc nào để lánh nạn.
Mười năm sau, Ultraman trở thành người tận tâm nhất trong việc tạo ra ngày tận thế, đồng thời cũng là người tận tâm nhất trong việc quảng bá Arks. Anh ta vừa cảnh báo nhân loại rằng AI sẽ tiêu diệt loài người, vừa tự tay đẩy nhanh tiến trình đó; anh ta vừa nói mình không vì tiền, vừa xây dựng một đế chế đầu tư cá nhân trị giá 2 tỷ USD; anh ta vừa kêu gọi giám sát, vừa loại bỏ tất cả những người cố gắng phanh lại.
Anh ta không phải là một kẻ điên loạn phân ly hay một kẻ lừa đảo tính toán chu đáo, mà chỉ là sản phẩm tiêu chuẩn và thành công nhất được sản xuất ra từ cỗ máy khổng lồ mang tên Thung lũng Silicon. “Thiên mệnh” của anh ta chính là rèn luyện nỗi lo lắng tập thể của con người thành quyền trượng và vương miện của chính mình.
Apocalypse là một ngành kinh doanh tốt
Mô hình kinh doanh của Ultraman có thể giải thích trong một câu: biến một ngành kinh doanh thành một cuộc thánh chiến liên quan đến sự tồn vong của nhân loại.
Anh ấy đã luyện tập chiến lược này từ thời YC. Anh ấy đã biến YC từ một xưởng nhỏ cung cấp vài chục nghìn đô la cho các startup giai đoạn đầu thành một đế chế khởi nghiệp đồ sộ. Anh ấy thành lập phòng nghiên cứu YC, tài trợ cho những dự án không sinh lời nhưng nghe có vẻ hoành tráng. Anh ấy nói với các nhà báo rằng mục tiêu của YC là tài trợ cho “tất cả các lĩnh vực quan trọng”.
Đến OpenAI, anh ta đã đẩy lối chơi này đến cực hạn. Anh ta bán một hệ thống thế giới quan đã được đóng gói: Ngày tận thế của AI + giải pháp cứu rỗi.
Anh ấy giỏi hơn bất kỳ ai trong việc mô tả “nguy cơ diệt vong” do AI mang lại. Anh ấy đã cùng hàng trăm nhà khoa học ký tên, cho rằng rủi ro của AI ngang với chiến tranh hạt nhân. Khi chứng kiến trước Thượng viện, anh ấy nói: “Chúng ta cảm thấy một chút sợ hãi trước (tiềm năng của AI) – và mọi người nên cảm thấy vui vì điều đó.” Anh ấy ngụ ý rằng nỗi sợ hãi này chính là một lời cảnh báo hữu ích.
Mỗi câu này đều có thể lên trang nhất, mỗi câu đều đang quảng bá miễn phí cho OpenAI. Nỗi sợ được thiết kế tinh vi này là đòn bẩy chú ý hiệu quả nhất. Một công nghệ “có thể tăng hiệu suất” và một công nghệ “có thể tiêu diệt nhân loại”, cái nào khiến giới đầu tư và truyền thông hưng phấn hơn? Câu trả lời là rõ ràng.
Ở phần cứu rỗi, anh ấy cũng có sẵn sản phẩm: Worldcoin. Khi nỗi sợ được gieo rắc vào nhận thức công chúng, việc bán giải pháp trở nên hợp lý. Dùng một quả cầu màu bạc to bằng quả bóng rổ để quét mống mắt con người toàn cầu, với lý do là để phân phối tiền cho mọi người trong thời đại AI. Câu chuyện được kể rất hay, nhưng hành động đổi dữ liệu sinh trắc học lấy tiền nhanh chóng khiến chính phủ nhiều quốc gia cảnh giác. Hơn chục quốc gia như Kenya, Tây Ban Nha, Brazil, Ấn Độ, Colombia đều đình chỉ hoặc điều tra Worldcoin vì lý do quyền riêng tư dữ liệu.

Nhưng đối với Ultraman, điều này có thể hoàn toàn không quan trọng. Điều quan trọng là, thông qua dự án này, anh ấy đã thành công trong việc tự xây dựng hình ảnh là người “duy nhất có giải pháp”.
Bán gộp nỗi sợ và hy vọng là mô hình kinh doanh hiệu quả nhất của thời đại này.
Quy định là vũ khí của tôi, không phải gông cùm của tôi
Một người luôn nói về ngày tận thế thì làm thế nào để kinh doanh? Câu trả lời của Ultraman là: biến sự giám sát thành vũ khí của chính mình.
Tháng 5 năm 2023, anh ấy lần đầu tiên chứng kiến trước Quốc hội Mỹ. Thay vì phàn nàn về quy định như các giám đốc điều hành công ty công nghệ khác, anh ấy chủ động đề xuất: “Hãy điều tiết chúng tôi.” Anh ấy đề xuất thiết lập một hệ thống cấp phép AI, chỉ những công ty có giấy phép mới được phát triển các mô hình lớn. Hình ảnh công khai này cho thấy một nhà lãnh đạo ngành đầy trách nhiệm, nhưng vào thời điểm đó, OpenAI đang dẫn đầu vượt trội về mặt công nghệ, một hệ thống quy định nghiêm ngặt và có rào cản cao sẽ có tác dụng lớn nhất là loại bỏ tất cả các đối thủ tiềm năng ra khỏi cuộc chơi.
Tuy nhiên, theo thời gian, đặc biệt sau khi các đối thủ như Google và Anthropic bắt kịp về mặt công nghệ và sức mạnh của cộng đồng mã nguồn mở bắt đầu nổi lên, quan điểm của Altman về việc quản lý đã có sự thay đổi tinh vi. Ông bắt đầu nhấn mạnh tại nhiều diễn đàn khác nhau rằng các quy định quá nghiêm ngặt, đặc biệt là yêu cầu các công ty AI phải trải qua đánh giá bắt buộc trước khi ra mắt, có thể làm窒息 đổi mới và mang tính “thảm họa”.
Sự giám sát lúc này không còn là hào nước bảo vệ, mà là tảng đá cản đường.
Khi bản thân ở thế ưu thế tuyệt đối, ông kêu gọi giám sát để củng cố lợi thế; khi lợi thế không còn, ông kêu gọi tự do để tìm kiếm đột phá. Ông thậm chí còn cố gắng mở rộng phạm vi ảnh hưởng đến đầu nguồn của chuỗi công nghiệp. Ông đề xuất một kế hoạch chip trị giá 7 nghìn tỷ USD, tìm kiếm sự hỗ trợ từ các quỹ đầu tư chủ quyền của Các Tiểu vương quốc Ả Rập Thống nhất và các nguồn vốn khác, nhằm tái cấu trúc cục diện ngành bán dẫn toàn cầu. Điều này đã vượt xa phạm vi quyền hạn của một CEO, mà giống như một kẻ đầy tham vọng muốn tác động đến cục diện toàn cầu.

Đằng sau tất cả những điều này là sự chuyển đổi nhanh chóng của OpenAI từ một tổ chức phi lợi nhuận thành một cỗ máy thương mại khổng lồ. Khi được thành lập năm 2015, sứ mệnh của nó là “đảm bảo AGI mang lại lợi ích cho toàn nhân loại một cách an toàn”. Năm 2019, nó thành lập công ty con “lợi nhuận hữu hạn”. Đến đầu năm 2024, bên ngoài phát hiện từ “một cách an toàn” trong tuyên bố sứ mệnh của OpenAI đã bị xóa bỏ lặng lẽ. Mặc dù cấu trúc công ty vẫn là “lợi nhuận hữu hạn”, nhưng tốc độ thương mại hóa của nó rõ ràng đã tăng tốc đáng kể. Tương ứng với điều này là sự tăng trưởng bùng nổ về doanh thu, từ vài trăm triệu đô la Mỹ năm 2022 lên hơn 10 tỷ đô la Mỹ doanh thu hàng năm vào năm 2024, định giá cũng tăng từ 29 tỷ lên mức hàng trăm tỷ đô la Mỹ.
Khi một người bắt đầu ngước lên bầu trời sao và nói về số phận của nhân loại, tốt nhất nên xem ví tiền của anh ta rơi ở đâu.
Quyền miễn trừ của nhà lãnh đạo quyến rũ
Ngày 17 tháng 11 năm 2023, Otman bị hội đồng quản trị do chính ông lựa chọn sa thải với lý do “không trung thực trong giao tiếp với hội đồng quản trị”.
Những sự kiện xảy ra trong năm ngày tới, hơn là một cuộc đấu tranh thương mại, lại giống như một cuộc trưng cầu dân ý về niềm tin. Tổng giám đốc Greg Brockman từ chức; hơn 700 nhân viên, chiếm 95% công ty, đã cùng ký đơn yêu cầu hội đồng quản trị từ chức, nếu không sẽ cùng nhảy sang Microsoft; nhà đầu tư lớn nhất, CEO Microsoft Nadella, công khai đứng về phía Otterman, nói rằng luôn sẵn sàng chào đón Otterman quay lại làm việc. Cuối cùng, Otterman trở lại với tư cách hoàng đế, phục hồi chức vụ và thanh lọc gần như toàn bộ các thành viên hội đồng quản trị phản đối ông.
Tại sao một CEO bị hội đồng quản trị chính thức xác định là “không trung thực” lại có thể trở về nguyên vẹn, thậm chí còn sở hữu quyền lực lớn hơn?
Thành viên hội đồng quản trị bị trục xuất, Helen Toner, sau đó đã tiết lộ chi tiết. Altman đã che giấu hội đồng quản trị về quyền kiểm soát thực tế của ông đối với quỹ khởi nghiệp của OpenAI; nhiều lần nói dối về các quy trình an toàn quan trọng của công ty; thậm chí ngay cả việc ra mắt ChatGPT, hội đồng quản trị cũng chỉ biết qua Twitter. Những cáo buộc này, chỉ cần một trong số đó cũng đủ để một CEO bị sa thải trăm lần.
Nhưng Ultraman không sao cả. Vì anh ấy không phải là một CEO bình thường, mà là một “nhà lãnh đạo mang tính quyến rũ”.
Đây là khái niệm do nhà xã hội học Max Weber đưa ra cách đây một thế kỷ, nói rằng có một loại quyền lực không xuất phát từ chức vụ, không xuất phát từ pháp luật, mà đến từ «sức hút cá nhân siêu việt» của chính nhà lãnh đạo. Những người theo dõi tin tưởng ông ta, không phải vì ông ta đã làm đúng điều gì, mà vì ông ta chính là ông ta. Niềm tin này là phi lý. Khi nhà lãnh đạo mắc sai lầm hoặc bị thách thức, phản ứng đầu tiên của những người theo dõi không phải là đặt câu hỏi về nhà lãnh đạo, mà là tấn công người thách thức đó.
Nhân viên của OpenAI chính là như vậy. Họ không tin vào thủ tục công bằng của hội đồng quản trị, họ chỉ tin vào “thiên mệnh” mà Altman đại diện, và họ cho rằng những người trong hội đồng quản trị đang “cản trở sự tiến bộ của nhân loại”.
Sau khi Altman trở lại vị trí, đội an toàn của OpenAI nhanh chóng bị giải tán. Nhà khoa học trưởng Ilya Sutskever, người từng dẫn đầu việc sa thải Altman, sau đó cũng rời đi. Tháng 5 năm 2024, người đứng đầu đội an toàn Jan Leike từ chức, ông viết trên Twitter: “Để ra mắt những sản phẩm rực rỡ, văn hóa và quy trình an toàn của công ty đã bị hy sinh.”

Trước một “nhà lãnh đạo quyến rũ”, sự thật không quan trọng, quy trình không quan trọng, an toàn cũng không quan trọng. Điều duy nhất quan trọng là niềm tin.
Những nhà tiên tri trên dây chuyền sản xuất
Sam Altman chỉ là dòng sản xuất “tiên tri” của Thung lũng Silicon mới nhất và thành công nhất.
Trên dây chuyền sản xuất này, còn có rất nhiều người mà chúng ta rất quen thuộc.
Ví dụ như Musk. Năm 2014, ông ấy liên tục nói rằng “AI đang gọi quỷ dữ đến”. Nhưng Tesla của ông lại là công ty robot lớn nhất thế giới và là bối cảnh ứng dụng AI phức tạp nhất. Sau khi mâu thuẫn với Altman, ông thành lập xAI vào năm 2023 và tuyên chiến trực diện. Chỉ sau một năm, định giá của xAI đã vượt quá 20 tỷ USD. Ông vừa cảnh báo về sự xuất hiện của quỷ dữ, vừa tự tay tạo ra một quỷ dữ khác. Câu chuyện nhị nguyên đầy mâu thuẫn này hoàn toàn giống với Altman.
Lấy ví dụ như Zuckerberg. Vài năm trước, ông đã đặt toàn bộ tương lai của công ty vào metaverse, tiêu tốn gần 90 tỷ USD, nhưng cuối cùng phát hiện ra đó là một cái bẫy. Ngay lập tức, ông quay đầu, chuyển đổi cốt lõi câu chuyện của công ty từ metaverse sang AGI. Năm 2025, ông công bố thành lập “Phòng thí nghiệm Siêu trí tuệ” và trực tiếp tuyển dụng nhân tài. Cũng là một tầm nhìn vĩ đại liên quan đến tương lai của nhân loại, cũng là một câu chuyện vốn đòi hỏi đầu tư khổng lồ, cùng tư thế cứu thế như nhau.

Còn có Peter Thiel. Là người hướng dẫn của Altman, ông giống như tổng thiết kế của dây chuyền này. Trong khi đầu tư vào các công ty tuyên truyền về “điểm kỳ dị công nghệ” và “bất tử”, ông đồng thời mua đất ở New Zealand và xây dựng hầm trú ẩn ngày tận thế, chỉ ở New Zealand 12 ngày đã nhận được quốc tịch. Palantir dưới sự quản lý của ông là một trong những công ty giám sát dữ liệu lớn nhất thế giới, với khách hàng chủ yếu là chính phủ và quân đội. Ông vừa chuẩn bị cho sự sụp đổ của nền văn minh, vừa chế tạo những công cụ giám sát sắc bén nhất cho những người nắm quyền lực. Trong chiến dịch quân sự chống lại Iran vào đầu năm 2026, chính nền tảng trí tuệ nhân tạo của Palantir đã đóng vai trò là bộ não, tích hợp lượng lớn dữ liệu từ vệ tinh gián điệp, nghe lén truyền thông, máy bay không người lái và phân tích của mô hình Claude, chuyển đổi thông tin hỗn loạn thành thông tin có thể ra quyết định theo thời gian thực, cuối cùng xác định được mục tiêu và thực hiện hành động loại bỏ.
Mỗi người trong số họ đều đóng vai trò kép: “cảnh báo ngày tận thế sắp đến” và “thúc đẩy ngày tận thế xảy ra”. Đây không phải là rối loạn nhân cách, mà là một mô hình kinh doanh đã được thị trường vốn xác minh là hiệu quả nhất. Họ thu hút sự chú ý, vốn và quyền lực thông qua việc tạo ra và bán ra sự lo lắng mang tính cấu trúc. Họ là sản phẩm của hệ thống này, đồng thời cũng là người định hình nên hệ thống đó — là “điều ác đằng sau những câu chuyện vĩ đại”.
Thung lũng Silicon từ lâu đã không còn chỉ là nơi sản xuất công nghệ, mà còn là một nhà máy tạo ra những «huyền thoại hiện đại».
Tại sao trò chơi này luôn thành công mỗi lần?
Cứ vài năm, Silicon Valley lại sinh ra một nhà tiên tri mới, dùng một câu chuyện lớn lao về ngày tận thế và sự cứu rỗi để cuốn hút sự chú ý của vốn, truyền thông và công chúng. Vở kịch này được lặp đi lặp lại nhiều lần, nhưng mỗi lần đều thành công. Mỗi khâu trong đó đều nhắm đúng vào những lỗ hổng nhận thức cụ thể của con người.
Bước đầu tiên: Quản lý nhịp độ của nỗi sợ, chứ không chỉ tạo ra nỗi sợ.
Các rủi ro tiềm ẩn của AI là có thật, nhưng những rủi ro này vốn có thể được thảo luận một cách bình tĩnh. Chính những người này đã chủ động chọn cách trình bày nó theo cách kịch tính nhất, và hơn nữa, họ kiểm soát nhịp độ giải phóng nỗi sợ một cách tinh vi.
Khi nào khiến công chúng cảm thấy sợ hãi, khi nào đưa ra hy vọng, và khi nào lại nâng cao cảnh báo, tất cả đều được thiết kế cẩn thận. Nỗi sợ là nhiên liệu, nhưng thời điểm và cách thức thắp lửa mới là công nghệ thực sự.
Bước thứ hai: Biến sự khó hiểu về mặt kỹ thuật thành nguồn gốc của quyền lực.
AI là một hộp đen hoàn toàn không minh bạch đối với đa số mọi người. Khi một thứ gì đó phức tạp đến mức không thể được hiểu đầy đủ xuất hiện, con người có xu hướng tự động giao quyền giải thích cho “người hiểu nó nhất”. Họ thấu hiểu sâu sắc điều này và biến nó thành một lợi thế có tính cấu trúc: họ càng mô tả AI một cách huyền bí, nguy hiểm và vượt quá khả năng hiểu của người bình thường, thì bản thân họ càng trở nên không thể thay thế.
Điều đáng sợ trong logic này là nó tự củng cố chính mình. Bất kỳ sự nghi ngờ nào từ bên ngoài đều bị tự động vô hiệu hóa vì người nghi ngờ “không đủ hiểu biết”. Các nhà quản lý không hiểu công nghệ, nên phán quyết của họ không đáng tin; những nhà phê bình trong giới học thuật chưa từng thực hiện mô hình ở tuyến đầu, nên mối lo ngại của họ chỉ là lý thuyết suông. Cuối cùng, chỉ có chính họ mới có quyền đánh giá chính họ.
Bước thứ ba: Thay "lợi ích" bằng "ý nghĩa" để người theo dõi tự nguyện từ bỏ sự chỉ trích.
Đây là lớp khó bị phát hiện nhất trong toàn bộ hệ thống, cũng là nguồn gốc sức mạnh bền bỉ nhất của nó. Họ không chỉ bán một công việc hay một sản phẩm, mà là một câu chuyện mang ý nghĩa quy mô vũ trụ: bạn đang quyết định số phận của nhân loại. Khi câu chuyện này được chấp nhận, những người theo dõi sẽ chủ động từ bỏ khả năng phán đoán độc lập. Bởi vì trước một sứ mệnh liên quan đến “sự tồn vong của nhân loại”, việc đặt câu hỏi về động cơ của nhà lãnh đạo sẽ khiến bản thân trở nên nhỏ bé, thậm chí giống như một kẻ cản trở lịch sử. Nó khiến con người sẵn sàng giao nộp khả năng phản biện, và xem việc từ bỏ đó là một lựa chọn cao quý.
Đặt ba bước này lại với nhau, bạn sẽ hiểu vì sao hệ thống này khó bị lay chuyển đến vậy. Nó không dựa vào sự dối trá, mà dựa trên sự hiểu biết chính xác về cấu trúc nhận thức của con người. Nó trước tiên tạo ra nỗi sợ mà bạn không thể bỏ qua, sau đó độc quyền cách giải thích nỗi sợ đó, và cuối cùng dùng “ý nghĩa” để biến bạn thành người truyền bá trung thành nhất của nó.
Trong hệ thống này, Ultraman là mẫu hoạt động trơn tru nhất cho đến nay.
Who's destiny?
Ultraman luôn nói rằng anh ấy không sở hữu cổ phần ở OpenAI, chỉ nhận mức lương tượng trưng, điều này từng là nền tảng của câu chuyện "làm vì đam mê" của anh ấy.
Nhưng Bloomberg đã tính toán cho anh ta vào năm 2024, tài sản ròng cá nhân của anh ta khoảng 2 tỷ USD. Tài sản này chủ yếu đến từ loạt đầu tư VC của anh ta trong hơn một thập kỷ qua. Một khoản đầu tư sớm vào công ty thanh toán Stripe, theo báo cáo, mang lại lợi nhuận lên tới hàng trăm triệu USD; việc Reddit niêm yết cũng mang lại cho anh ta lợi nhuận đáng kể. Anh ấy còn đầu tư vào công ty nhiệt hạch Helion, vừa nói rằng tương lai của AI phụ thuộc vào đột phá năng lượng, vừa đặt cược nặng tay vào nhiệt hạch, sau đó OpenAI đã đến đàm phán với Helion về hợp đồng mua điện quy mô lớn. Anh ấy nói mình tránh xa các cuộc đàm phán, nhưng chuỗi lợi ích này thì ngay cả kẻ ngốc cũng nhìn ra.

Anh ấy thực sự không sở hữu cổ phần trực tiếp trong OpenAI, nhưng anh ấy đã xây dựng một đế chế đầu tư khổng lồ, lấy cá nhân làm trung tâm xung quanh OpenAI. Mỗi lần anh ấy truyền giảng về tương lai của nhân loại, đều đang tiếp thêm giá trị cho lãnh thổ của đế chế đó.
Bây giờ, khi quay lại nhìn chiếc ba lô thoát hiểm đầy súng, vàng và kháng sinh, cùng mảnh đất tại Big Sur có thể bay đến bất cứ lúc nào, bạn có hiểu thêm điều gì không?
Anh ấy không bao giờ che giấu tất cả những điều này. Bao thoát hiểm là có thật, hầm trú ẩn là có thật, và sự đam mê với ngày tận thế cũng là có thật. Nhưng đồng thời, anh ấy cũng là người nỗ lực nhất trong việc thúc đẩy ngày tận thế đến. Hai điều này không mâu thuẫn, vì trong logic của anh ấy, ngày tận thế không cần phải ngăn cản, mà chỉ cần chiếm trước vị trí. Anh ấy say mê vai trò của người duy nhất nhìn thấu tương lai và chuẩn bị cho nó.
Việc chuẩn bị một túi sơ cứu vật chất hay xây dựng một đế chế tài chính xung quanh OpenAI, về bản chất đều giống nhau: tự xác định cho mình một vị trí người chiến thắng chắc chắn nhất trong tương lai đầy bất định mà chính bạn đang thúc đẩy.
Tháng 2 năm 2026, anh ta vừa nói xong về việc ủng hộ đường đỏ “AI không được sử dụng trong chiến tranh”, ngay sau đó đã ký hợp đồng với Lầu Năm Góc. Đây không phải là đạo đức giả, mà là yêu cầu nội tại trong mô hình kinh doanh của anh ta. Tư thế đạo đức là một phần của sản phẩm, hợp đồng thương mại là nguồn lợi nhuận. Anh ta cần đồng thời đóng vai vị cứu tinh đầy lòng từ bi và vị tiên tri tàn khốc của ngày tận thế, bởi chỉ khi đóng cả hai vai này, câu chuyện của anh ta mới có thể tiếp tục, và “thiên mệnh” của anh ta mới trở nên rõ ràng.
Điều thực sự nguy hiểm không bao giờ là AI, mà là những người tin rằng mình có quyền định nghĩa số phận của con người.
Nhấp để tìm hiểu các vị trí đang tuyển của律动BlockBeats
Chào mừng bạn tham gia cộng đồng chính thức của律动 BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm giao lưu Telegram: https://t.me/BlockBeats_App
Tài khoản chính thức trên Twitter: https://twitter.com/BlockBeatsAsia
