Báo cáo của New York Times tiết lộ những nghi ngờ nội bộ của OpenAI về sự đáng tin cậy của Sam Altman

iconTechFlow
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
Bài viết tin tức trên chuỗi của New York Times tiết lộ những nghi ngờ nội bộ tại OpenAI về sự đáng tin cậy của CEO Sam Altman. Dựa trên hơn 100 cuộc phỏng vấn và tài liệu nội bộ, báo cáo tuyên bố rằng Altman đã lừa dối hội đồng quản trị và gỡ bỏ các biện pháp an toàn. Một tài liệu 70 trang do cựu nhà khoa học trưởng Ilya Sutskever soạn thảo nêu chi tiết những hành vi gian dối bị cáo buộc của Altman, bao gồm những tuyên bố sai lệch về GPT-4. Dario Amodei của Anthropic đã ghi nhận trong riêng tư rằng “vấn đề của OpenAI chính là Sam himself.” Báo cáo cũng nhấn mạnh sự chuyển đổi của OpenAI từ sứ mệnh phi lợi nhuận về an toàn sang một thực thể thương mại, với các giao thức quan trọng được cho là đã bị bỏ qua. Các danh sách token mới và thay đổi chiến lược doanh nghiệp hiện đang bị giám sát chặt chẽ hơn trong các lĩnh vực AI và tiền điện tử.

Bài viết: Tiểu Bánh, Shenchao TechFlow

Mùa thu năm 2023, nhà khoa học trưởng của OpenAI, Ilya Sutskever, ngồi trước máy tính và hoàn thành một tài liệu 70 trang.

Tài liệu này được tổng hợp từ lịch sử tin nhắn Slack, hồ sơ giao tiếp của bộ phận nhân sự và biên bản các cuộc họp nội bộ, nhằm trả lời một câu hỏi duy nhất: Sam Altman, người đang kiểm soát có thể là công nghệ nguy hiểm nhất trong lịch sử nhân loại, liệu có thể được tin tưởng không?

Câu trả lời của Sutskever được viết ở dòng đầu tiên của trang đầu tiên, tiêu đề danh sách là "Sam thể hiện mô hình hành vi nhất quán..."

First: Lie.

Hôm nay, sau hai năm rưỡi, các nhà báo điều tra Ronan Farrow và Andrew Marantz đã đăng một bài điều tra dài trên The New Yorker. Họ đã phỏng vấn hơn 100 nhân vật liên quan, tiếp cận được các biên bản nội bộ chưa từng được công bố trước đây, cùng với hơn 200 trang ghi chú cá nhân của Dario Amodei, người sáng lập Anthropic, thời kỳ ông còn làm việc tại OpenAI. Câu chuyện được ghép lại từ những tài liệu này còn tồi tệ hơn nhiều so với cuộc "đấu đá cung đình" năm 2023: OpenAI đã từng bước biến đổi từ một tổ chức phi lợi nhuận được thành lập vì an toàn của nhân loại thành một cỗ máy thương mại, và gần như mọi hàng rào an toàn đều bị chính một người duy nhất tự tay tháo dỡ.

Kết luận của Amodei trong ghi chú rõ ràng hơn: “Vấn đề của OpenAI chính là Sam.”

Thiết lập "tội lỗi nguyên thủy" của OpenAI

Để hiểu được trọng lượng của bài báo này, trước tiên phải làm rõ công ty OpenAI đặc biệt đến mức nào.

Năm 2015, Altman và một nhóm tinh hoa Thung lũng Silicon đã làm một việc chưa từng có trong lịch sử kinh doanh: sử dụng một tổ chức phi lợi nhuận để phát triển có thể là công nghệ mạnh nhất trong lịch sử nhân loại. Nhiệm vụ của hội đồng quản trị được ghi rõ ràng: an toàn được ưu tiên hơn cả sự thành công của công ty, thậm chí còn hơn cả sự tồn tại của công ty. Nói cách khác, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, hội đồng quản trị có nghĩa vụ tự tay đóng cửa công ty này.

Toàn bộ kiến trúc dựa trên một giả định: người điều hành AGI phải là một người cực kỳ trung thực.

Nếu đặt cược sai thì sao?

Trung tâm của báo cáo là tài liệu 70 trang. Sutskever không tham gia vào chính trị văn phòng; ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng tin chắc một điều: Altman đang liên tục nói dối với các giám đốc điều hành và hội đồng quản trị.

Một ví dụ cụ thể: Tháng 12 năm 2022, Altman đã cam kết tại cuộc họp hội đồng quản trị rằng nhiều tính năng của GPT-4 sắp ra mắt đã qua đánh giá an toàn. Thành viên hội đồng quản trị Toner yêu cầu xem tài liệu phê duyệt, nhưng phát hiện ra hai tính năng gây tranh cãi nhất (tinh chỉnh tùy chỉnh người dùng và triển khai trợ lý cá nhân) hoàn toàn chưa được hội đồng an toàn phê duyệt.

Một sự việc còn kỳ lạ hơn đã xảy ra tại Ấn Độ. Một nhân viên đã báo cáo với một thành viên hội đồng quản trị về "vi phạm đó": Microsoft đã phát hành phiên bản sơ bộ của ChatGPT tại Ấn Độ trước thời hạn mà không hoàn thành các cuộc kiểm tra bảo mật cần thiết.

Sutskever cũng ghi lại một điều khác trong bản ghi nhớ: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng lắm, vì luật sư trưởng pháp lý của công ty đã chấp thuận. Murati đã liên hệ với luật sư trưởng pháp lý để xác minh, và người này trả lời: "Tôi không biết Sam đã có ấn tượng đó từ đâu."

Ghi chú riêng 200 trang của Amodei

Tài liệu của Sutskever giống như một bản truy tố của công tố viên. Những ghi chú hơn 200 trang của Amodei giống như một cuốn nhật ký do nhân chứng viết tại hiện trường vụ án.

Trong những năm làm trưởng bộ phận an toàn tại OpenAI, Amodei đã chứng kiến công ty từng bước lùi bước dưới áp lực thương mại. Anh ghi lại một chi tiết quan trọng trong vụ đầu tư của Microsoft năm 2019: anh đã đưa vào điều lệ của OpenAI một điều khoản "sáp nhập và hỗ trợ", với nội dung rằng nếu một công ty khác tìm ra con đường an toàn hơn để phát triển AGI, OpenAI nên ngừng cạnh tranh và chuyển sang hỗ trợ công ty đó. Đây là biện pháp bảo vệ an toàn mà anh coi trọng nhất trong toàn bộ giao dịch.

Khi ký nhanh hợp đồng, Amodei phát hiện ra một điều: Microsoft đã giành quyền phủ quyết đối với điều khoản này. Ý nghĩa là gì? Ngay cả khi một ngày nào đó, đối thủ cạnh tranh tìm ra con đường tốt hơn, Microsoft chỉ cần một câu nói là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn còn trên giấy, nhưng kể từ ngày ký, nó đã trở thành tờ giấy vô giá trị.

Amodei sau đó rời OpenAI và thành lập Anthropic. Cuộc cạnh tranh giữa hai công ty xuất phát từ sự khác biệt căn bản về cách nên phát triển AI.

Lời hứa về 20% công suất bị biến mất

Có một chi tiết trong bài báo, sau khi đọc xong khiến bạn cảm thấy lạnh sống lưng, về đội "siêu đồng bộ" của OpenAI.

Giữa năm 2023, Altman đã gửi email cho một nghiên cứu sinh tiến sĩ tại Berkeley đang nghiên cứu về "sự đồng bộ gian lận" (AI giả vờ ngoan trong các bài kiểm tra nhưng lại hành động theo cách riêng khi được triển khai thực tế), cho biết anh rất lo ngại về vấn đề này và đang cân nhắc thành lập một giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ USD. Nghiên cứu sinh này rất được khích lệ, đã nghỉ học và gia nhập OpenAI.

Sau đó, Altman thay đổi ý định: không tổ chức giải thưởng bên ngoài nữa, mà thành lập "Đội siêu căn chỉnh" ngay trong công ty. Công ty công bố rộng rãi rằng sẽ dành "20% năng lực tính toán hiện có" cho đội này, với giá trị tiềm năng vượt quá 1 tỷ USD. Lời tuyên bố được diễn đạt cực kỳ nghiêm túc, cho rằng nếu vấn đề căn chỉnh không được giải quyết, AGI có thể dẫn đến "việc con người bị tước quyền lực, thậm chí tuyệt chủng".

Jan Leike, người được bổ nhiệm dẫn dắt đội ngũ này, sau đó đã cho các nhà báo biết rằng chính cam kết này đã trở thành một công cụ giữ chân nhân tài rất hiệu quả.

Thực tế thì sao? Bốn người làm việc trong nhóm hoặc tiếp xúc gần gũi với nhóm cho biết, công suất tính toán thực tế được cấp chỉ chiếm 1% đến 2% tổng công suất của công ty, và còn là phần cứng cũ nhất. Nhóm sau đó đã bị giải tán mà chưa hoàn thành sứ mệnh.

Khi các nhà báo yêu cầu phỏng vấn những người phụ trách nghiên cứu về "an toàn tồn tại" của OpenAI, phản ứng từ bộ phận truyền thông của công ty thật sự khiến người ta vừa buồn vừa cười: "Đó không phải là một... thứ thực sự tồn tại."

Altman bản thân thì khá bình thản. Anh ấy nói với phóng viên rằng "trực giác của mình không phù hợp với nhiều khía cạnh an toàn AI truyền thống", nhưng OpenAI vẫn sẽ thực hiện "các dự án an toàn, hoặc ít nhất là các dự án liên quan đến an toàn".

CFO bị cô lập và đợt IPO sắp tới

Bài báo của The New Yorker chỉ là một nửa những tin xấu trong ngày hôm đó. Cùng ngày, The Information tiết lộ một tin nóng khác: CFO của OpenAI, Sarah Friar, đã có bất đồng nghiêm trọng với Altman.

Friar đã nói riêng với đồng nghiệp rằng cô cảm thấy OpenAI chưa sẵn sàng để niêm yết năm nay. Hai lý do: khối lượng công việc mang tính thủ tục và tổ chức còn lại quá lớn, rủi ro tài chính từ cam kết của Altman về chi tiêu 600 tỷ USD cho năng lực tính toán trong 5 năm quá cao. Cô thậm chí không chắc liệu tăng trưởng doanh thu của OpenAI có đủ để duy trì những cam kết này hay không.

Nhưng Altman muốn đẩy nhanh IPO vào quý tư năm nay.

Điều còn đáng ngạc nhiên hơn là Friar đã không còn báo cáo trực tiếp cho Altman nữa. Kể từ tháng 8 năm 2025, cô bắt đầu báo cáo cho Fidji Simo (CEO bộ phận ứng dụng của OpenAI). Và Simo vừa mới nghỉ ốm tuần trước do lý do sức khỏe. Bạn hãy tự suy ngẫm về tình huống này: một công ty đang tiến gần đến IPO, với sự bất đồng cơ bản giữa CEO và CFO, CFO không báo cáo cho CEO, và cấp trên của CFO lại đang nghỉ ốm.

Ngay cả các quản lý cấp cao trong nội bộ Microsoft cũng không thể chịu nổi, cho rằng Altman "bẻ cong sự thật, thất hứa và liên tục bác bỏ các thỏa thuận đã đạt được". Một quản lý của Microsoft thậm chí còn nói: "Tôi cảm thấy anh ta có xác suất nhất định sẽ cuối cùng được mọi người nhớ đến như một kẻ lừa đảo cấp độ Bernie Madoff hoặc SBF."

Hình ảnh "hai mặt" của Altman

Một cựu thành viên hội đồng quản trị OpenAI đã mô tả với phóng viên hai đặc điểm nổi bật của Altman. Câu nói này có thể là bức chân dung nhân vật sắc sảo nhất trong toàn bộ bài báo.

Vị giám đốc này cho biết, Altman sở hữu một sự kết hợp đặc tính cực kỳ hiếm có: trong mỗi cuộc giao tiếp trực tiếp, anh ấy đều khao khát mạnh mẽ khiến người khác hài lòng và được họ yêu mến. Đồng thời, anh ấy lại vô cùng vô cảm trước những hệ quả có thể xảy ra do lừa dối người khác.

Hai đặc tính này cùng xuất hiện ở một người là cực kỳ hiếm gặp. Nhưng đối với một nhân viên bán hàng, đó lại là món quà hoàn hảo nhất.

Một phép ẩn dụ trong bài báo rất hay: Jobs nổi tiếng với "trường bẻ cong thực tại", giúp cả thế giới tin vào tầm nhìn của ông. Nhưng ngay cả Jobs cũng chưa bao giờ nói với khách hàng: "Nếu bạn không mua máy nghe nhạc MP3 của tôi, những người bạn yêu quý sẽ chết."

Altman đã từng nói điều tương tự về AI.

Vấn đề đạo đức của một CEO tại sao lại là rủi ro của tất cả mọi người

Nếu Altman chỉ là CEO của một công ty công nghệ bình thường, những cáo buộc này ít nhất cũng chỉ là tin đồn kinh doanh thú vị. Nhưng OpenAI không bình thường.

Theo chính nó, nó đang phát triển công nghệ mạnh nhất trong lịch sử nhân loại, có thể tái định hình nền kinh tế toàn cầu và thị trường lao động (OpenAI vừa mới công bố một bản trắng chính sách về vấn đề thất nghiệp do AI gây ra), đồng thời cũng có thể được sử dụng để chế tạo vũ khí sinh hóa quy mô lớn hoặc tiến hành các cuộc tấn công mạng.

Tất cả các biện pháp an toàn đều chỉ còn là hình thức. Sứ mệnh phi lợi nhuận của người sáng lập đã nhường chỗ cho cuộc đua IPO. Cựu khoa học gia trưởng và cựu người phụ trách an ninh đều cho rằng CEO "không đáng tin". Các đối tác so sánh CEO với SBF. Trong hoàn cảnh này, CEO dựa vào đâu để đơn phương quyết định thời điểm công bố mô hình AI có thể thay đổi số phận nhân loại?

Gary Marcus (giáo sư AI tại Đại học New York, nhà vận động lâu năm về an toàn AI) sau khi đọc bài báo đã viết một câu: Nếu một mô hình OpenAI trong tương lai có thể chế tạo vũ khí sinh hóa quy mô lớn hoặc tiến hành các cuộc tấn công mạng gây thảm họa, bạn thực sự an tâm để Altman tự mình quyết định có phát hành hay không?

Phản hồi của OpenAI đối với bài viết của The New Yorker khá ngắn gọn: "Hầu hết nội dung bài viết này chỉ lặp lại những sự kiện đã được báo cáo, thông qua các nguồn tin ẩn danh và những câu chuyện chọn lọc, rõ ràng là có mục đích cá nhân."

Cách phản ứng của Altman: không phản hồi cụ thể các cáo buộc, không phủ nhận tính xác thực của bản ghi nhớ, chỉ đặt câu hỏi về động cơ.

Trên xác của tổ chức phi lợi nhuận, mọc lên một cái cây đẻ ra tiền

Mười năm của OpenAI, được viết thành một cốt truyện như sau:

Một nhóm những người lý tưởng lo ngại về rủi ro AI đã thành lập một tổ chức phi lợi nhuận với sứ mệnh rõ ràng. Tổ chức này đã đạt được những đột phá công nghệ phi thường. Đột phá này thu hút vốn đầu tư khổng lồ. Vốn cần lợi nhuận. Sứ mệnh bắt đầu nhường chỗ. Đội an toàn bị giải tán. Những người đặt câu hỏi bị thanh trừng. Cấu trúc phi lợi nhuận được chuyển đổi thành thực thể vì lợi nhuận. Hội đồng quản trị từng có quyền đóng cửa công ty, giờ đây đầy những đồng minh của CEO. Công ty từng cam kết dành 20% sức mạnh tính toán để bảo vệ an toàn con người, giờ đây các chuyên viên truyền thông của họ nói: “Đó không phải là một thứ tồn tại thực tế.”

Chủ nhân câu chuyện, hơn một trăm nhân chứng đã gắn cho anh ta cùng một nhãn hiệu: "Không bị ràng buộc bởi sự thật."

Anh ấy đang chuẩn bị đưa công ty này lên sàn IPO với định giá vượt quá 850 tỷ USD.

Thông tin trong bài viết này được tổng hợp từ các báo cáo công khai của nhiều phương tiện truyền thông như The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.