Đêm qua, người mới nổi trong lĩnh vực AI là Anthropic (sau đây gọi tắt là A社) không phát hành mô hình Claude mới, mà thay vào đó đã ra mắt một thứ trông đặc biệt “nhàm chán”: The Anthropic Institute (Viện Anthropic, viết tắt là TAI).
So với Harness Engineering (Kỹ thuật điều khiển) phổ biến vào năm 2026, các vấn đề TAI nhắm đến còn lớn lao hơn nhiều. Theo chương trình nghiên cứu do Anthropic công bố (anthropic-institute-agenda), TAI tập trung vào bốn hướng chính: khuếch tán kinh tế, mối đe dọa và khả năng chống chịu, hệ thống AI trong ứng dụng thực tế, cũng như nghiên cứu do AI thúc đẩy. TAI còn phát đi lời kêu gọi toàn cầu để tuyển dụng các nhà nghiên cứu cùng hợp tác giải quyết những vấn đề trên.

(Nguồn ảnh: X@Anthropic chính thức)
Nói cách khác, công ty A (viết tắt của Anthropic) đã thành lập một tổ chức nội bộ, chủ yếu nghiên cứu cách con người tương tác với AI:
- AI sẽ ảnh hưởng như thế nào đến việc làm và kinh tế?
- What new security risks will it bring?
- Sau khi con người thực sự sử dụng AI, hành vi và phán đoán của họ có thay đổi không?
- Khi AI bắt đầu hỗ trợ phát triển AI mạnh hơn, quá trình tăng tốc này nên được hiểu và kiểm soát như thế nào?
Nhiều độc giả có thể cho rằng đây chỉ là một hành động thông thường của một doanh nghiệp AI, nhưng Lei Technology cho rằng đây có thể là hành động đáng chú ý nhất của A社 trong thời gian gần đây. Tác động tích cực của TAI đối với ngành công nghiệp AI và nhân loại giống như giá trị cốt lõi “Đừng trở thành kẻ ác” mà Google từng đề xuất đối với ngành công nghiệp internet. Vì vậy, Lei Technology AGI mới nói rằng đây là một lần “ra mắt” không kém phần quan trọng so với việc nâng cấp mô hình lớn.
AI ảnh hưởng sâu sắc đến nền kinh tế: không chỉ là công ăn việc làm của người đi làm
Lĩnh vực nghiên cứu chính của TAI là Economic Diffusion.
Khi nhìn lại ba cuộc cách mạng công nghiệp đầu tiên trong lịch sử nhân loại, dù là máy dệt Jenny, động cơ hơi nước ầm ầm, hay điện và dây chuyền sản xuất sau này, tất cả đều thay thế bản chất là những công việc thể chất rẻ mạt và lặp đi lặp lại. Tuy nhiên, cuộc cách mạng công nghiệp lần thứ tư do AI khởi xướng hoàn toàn khác biệt, khi nó trực tiếp xâm nhập vào lĩnh vực lao động trí óc mà con người tự hào nhất.
Tuy nhiên, TAI chỉ ra mâu thuẫn cốt lõi là: công cụ đã được nâng cấp, nhưng tình cảnh của người lao động lại trở nên tồi tệ hơn.
Trong bản nghiên cứu, TAI cho rằng, nếu trong tương lai 3 người có thể sử dụng mô hình lớn để hoàn thành công việc của 300 người trước đây, thì công ty này sẽ trở nên như thế nào?
Nhà thiết kế có thể dùng AI để xử lý一键搞定 các lớp và tài nguyên phức tạp nhất, lập trình viên có thể dùng AI để Vibe Coding... Giả sử AI có thể tăng hiệu suất làm việc lên 75%, nhưng điều này sẽ không làm giảm thời gian làm việc của con người từ 8 giờ (hoặc thậm chí 996) xuống còn 2 giờ; ngược lại, con người có thể cần làm nhiều gấp năm lần công việc.
TAI quan tâm đến logic mới: “Khi có AI, khối lượng công việc của bạn sẽ tăng lên vài lần.” Để định lượng tình huống này, TAI đã đưa ra một thuật ngữ mới: The Anthropic Economic Index (Chỉ số Kinh tế Anthropic). A社 cho biết họ sẽ không chỉ công bố những bài báo học thuật ít người quan tâm, mà còn dự định công khai những dữ liệu thực tế này, nói rõ ràng với con người: AI đang âm thầm thay thế những vị trí từng thuộc về con người ở những ngành nào? Những người mới vào nghề liệu có bị “loại bỏ” ngay từ khi ra mắt?

(Nguồn ảnh: Được tạo bởi AI)
Không chỉ vậy, TAI còn đưa vấn đề này vào thế giới thực. Chúng ta đều biết rằng các mô hình lớn là một con “quái vật nuốt tiền” không bao giờ no, mỗi lần chúng ta sử dụng AI để tạo văn bản, hình ảnh, video hoặc thậm chí chỉ là một câu hỏi đơn giản đều tiêu tốn một lượng lớn Token—Token ở cấp độ cơ bản là năng lực tính toán, năng lực tính toán lại dựa trên chip, bộ nhớ và điện năng, và nếu đi sâu hơn nữa còn bao gồm lượng khí thải carbon, vốn v.v. Nguồn lực luôn có giới hạn; khi xã hội dồn toàn bộ nguồn lực khổng lồ vào AI, các ngành khác chắc chắn sẽ bị ảnh hưởng.
Năm 2026, cảm nhận rõ rệt nhất của mọi người là: tình trạng thiếu hụt bộ nhớ và lưu trữ do AI gây ra đã trực tiếp dẫn đến việc giá các thiết bị điện tử tiêu dùng tăng普遍, thậm chí các nhà sản xuất điện thoại còn buộc phải giảm mong muốn ra mắt điện thoại mới. Nhưng đồng thời, tất cả các nhà sản xuất điện thoại đều kỳ vọng sử dụng AI để tái cấu trúc logic sản phẩm và kéo dài vòng đời sản phẩm điện thoại, trong khi điện thoại AI nguyên bản của OpenAI cũng đã được đưa vào lịch trình. Khi mỗi người đều hưởng lợi từ AI, nhiều ngành công nghiệp khác đang bị AI ảnh hưởng sâu sắc — cả tích cực lẫn tiêu cực.
Còn TAI sẽ sử dụng "chỉ số kinh tế" để chuyển hóa tác động của AI đến nền kinh tế từ cảm nhận trừu tượng thành mô hình dữ liệu: chỉ khi làm rõ vấn đề, mới có thể giải quyết nó.
Cuộc khủng hoảng tối hậu: Con người đang “giao phó” não bộ của mình
Nếu việc mất việc là như dùng dao chậm cắt thịt, thì sự thay đổi trong tư duy suy nghĩ của con người do AI gây ra chính là tổn thương trực tiếp.
Đầu tiên bị ảnh hưởng chắc chắn là internet. Bạn không khó nhận ra rằng hiện nay internet đang trở thành một “đống rác”, trước đây tìm kiếm hướng dẫn du lịch có thể dễ dàng tìm thấy nhiều bài viết chia sẻ kinh nghiệm tránh bẫy, nhưng giờ đây toàn là những nội dung do AI tạo ra, nhìn thì đẹp mắt và trình bày gọn gàng nhưng lại hoàn toàn bịa đặt và đầy những lời vô nghĩa.
Đáng sợ hơn, AI đã hạ thấp rào cản của các ngành công nghiệp mơ hồ xuống mức bằng không: dùng AI thay đổi khuôn mặt để bịa đặt tin đồn khiêu dâm, sao chép giọng nói của người thân để thực hiện lừa đảo qua điện thoại, chỉ cần đốt một ít Token, kẻ lừa đảo đã có thể phá hủy cuộc sống của người bình thường.
TAI cũng nhận ra một cuộc khủng hoảng sâu sắc hơn: AI đang vô tình khiến con người trở nên ngày càng “ngu ngốc”.
Trước đây, từng có người dùng Trung Quốc khi đi ngoài trời hoang dã phát hiện một loại nấm hoang dã không quen thuộc, đã chụp ảnh và gửi cho AI hỏi: “Loại này có ăn được không?”, AI nghiêm túc xác định đó là một loại nấm độc hại thành “nấm khẩu mĩ vị có thể ăn được”; còn có đứa trẻ cầm một cái bẫy chuột hỏi AI đây là gì, AI nghiêm túc phân tích rằng đây là một “đồ chơi xe kart nhỏ đã bị bỏ đi, hình vuông vức, có cấu trúc kim loại”, kết quả là đứa trẻ tò mò đưa tay chạm vào, ngón tay bị kẹp chặt.
Những tin tức này nghe giống như những câu đùa đen tối, nhưng chúng làm nổi bật một hiện tượng: đặc điểm lớn nhất của AI không phải là thông minh, mà là sự “tự tin một cách khó hiểu”. AI không bao giờ có thể đạt độ chính xác 100%; mô hình mới nhất của Google Gemini, với độ chính xác sự thật khoảng 91%, đã là mức cao. Tuy nhiên, nhiều người dùng đã vô thức từ bỏ tư duy của mình trong quá trình sử dụng AI, quen dần với việc giao toàn bộ quyền quyết định cho một chuỗi mã.
Đối với điều này, TAI đã đưa ra một câu hỏi khiến người ta phải suy ngẫm: Khi một bộ phận lớn dân số toàn xã hội đều tìm kiếm lời khuyên từ chỉ hai hoặc ba mô hình lớn duy nhất, thì mô hình tư duy và phương pháp giải quyết vấn đề của con người sẽ bị "đồng nhất hóa" đáng sợ như thế nào? Bạn nghĩ mình đang dùng công cụ AI để nâng cao hiệu suất sản xuất và trình độ nhận thức, nhưng thực tế lại đang "giao phó bộ não" của mình. Nói cách khác, nếu tất cả mọi người bắt đầu phụ thuộc vào AI, rất có thể con người sẽ đánh mất khả năng tư duy độc lập, khiến bộ não của toàn nhân loại trở thành những bản sao được đúc theo cùng một khuôn mẫu.
AI mang tính hai mặt, làm thế nào để ngăn ngừa sự bùng nổ trí tuệ?
TAI cũng đề xuất một khái niệm mới: khả năng đa dụng (Dual-use capabilities), giải thích chính thức là: nếu một mô hình AI trở nên mạnh mẽ hơn trong lĩnh vực sinh học, thì nó không chỉ có thể dùng để phát triển thuốc mới, mà còn có thể dùng để chế tạo vũ khí sinh học cực kỳ nguy hiểm; nếu một AI có khả năng viết mã xuất sắc, thì nó không chỉ là một lập trình viên giỏi, mà đồng thời cũng trở thành một tin tặc có thể dễ dàng xâm nhập vào mạng nội bộ của quốc gia.

(Nguồn ảnh: Chính thức của Anthropic)
Khi những sinh vật mang “hai mục đích sử dụng” này được kết nối quy mô lớn với bộ não của xe tự lái, với cánh tay máy nặng của nhà máy, thậm chí được kết nối vào hệ thống an ninh và đàn drone, thì sẽ gây ra hậu quả lớn đến mức nào? Trong điện thoại, AI sẽ hiện lên một câu “Xin lỗi, tôi đã nhầm”; nhưng trong thế giới thực, chỉ cần sai lệch nhận diện một giây, đã là một vụ tai nạn an toàn lao động thực sự.
Huống chi các mô hình lớn có thể được cập nhật chỉ sau vài tuần, trong khi con người phải mất cả “năm” để sửa đổi một đạo luật, hoàn thiện bảo hiểm. Khoảng thời gian trống rỗng này chính là giai đoạn “không có phòng vệ” với mức độ yếu nhất. Khi các thảm họa do AI gây ra xảy ra, xã hội hiện nay hoàn toàn không có đủ “khả năng chống chịu” để gánh chịu.
Để giải quyết vấn đề này, TAI đã thành lập Frontier Red Team (Đội Đỏ Tiền tuyến). Nhiệm vụ của họ rất đơn giản nhưng trừu tượng: mỗi ngày đều tìm đủ cách tấn công và dụ dỗ các tác nhân AI mà họ tự phát triển, nhằm xác định rõ mức độ phá hoại mà chúng có thể gây ra trong thế giới thực, với mục tiêu xây dựng một hàng phòng thủ vững chắc trước khi hệ thống xã hội cũ kỹ sụp đổ hoàn toàn.
Trước đây, con người là người điều khiển tốc độ tiến hóa của AI, nhưng hiện nay các mô hình lớn cấp cao có thể tự đọc các bài báo khoa học và viết mã, có thể trong tương lai gần sẽ tự phát triển các mô hình lớn thế hệ mới. Khi tốc độ tự lặp lại của AI ngày càng nhanh, sự tiến hóa công nghệ sẽ nhanh chóng vượt xa nhận thức của con người.

(Nguồn ảnh: Được tạo bởi AI)
Để chuẩn bị cho điểm kỳ dị có thể xảy ra bất cứ lúc nào, TAI đã đề xuất một khái niệm mới: thực hiện các kịch bản Fire drill nhằm ứng phó với sự bùng nổ trí tuệ.
Nói một cách đơn giản, TAI đang chuẩn bị dẫn dắt các giám đốc điều hành của các phòng thí nghiệm hàng đầu cùng chính phủ các quốc gia tham gia một cuộc mô phỏng chiến lược: họ sẽ kiểm tra xem con người có thực sự khả năng phanh lại trước khi “bùng nổ trí tuệ” xảy ra thực sự.
Phát triển và quản lý đồng thời, A Society đã nghiêm túc phanh lại
Trong thời điểm mà toàn ngành đang lao vun vút mà không nhìn lại, việc Anthropic thành lập TAI thật sự khiến người ta phải “nể phục”.
Đối thủ cạnh tranh bên cạnh OpenAI mỗi ngày đều lên xu hướng vì những tin tức về việc giám đốc điều hành nghỉ việc, nội bộ đấu đá, hay những vụ kiện kéo dài với Musk. Nhiều công ty AI khác có hiệu quả kinh doanh kém, nhưng lại vừa tìm mọi cách “đánh bóng danh tiếng” trên các bảng xếp hạng, vừa đi khắp nơi huy động vốn, dựa vào định giá quá cao để thu hút vốn xã hội. Chủ đề mà A社 TAI muốn thảo luận thực ra đã được cả ngành bàn tán từ lâu, nhưng thái độ của hầu hết các đế chế AI lại là “cứ để mặc, trước tiên hãy phát triển đã”. Trong bầu không khí cực kỳ nóng vội này, A社 lại đạp phanh, công khai phơi bày những mớ hỗn độn không thể công khai này ra ánh sáng, thể hiện một thái độ mới đối với AI: vừa phát triển, vừa quản lý.
A không phải là tổ chức từ thiện, cũng không phải bị cảm xúc tràn ngập, mà đang chơi một ván cờ kinh doanh rất tinh vi. Hiện nay, những nhà tài trợ và chính phủ nắm quyền lực lớn đã trở nên sợ hãi trước các sự cố do AI gây ra: mua một mô hình về, điểm số cao hay thấp không quan trọng, điều đáng sợ nhất là nó đột nhiên phát điên và gây ra thảm họa, lúc đó sẽ không thể kiểm soát được. Và A đã tạo cho mình hình ảnh một “người bình thường” thông qua TAI, giúp người dùng an tâm và thế giới tin tưởng.

(Nguồn ảnh: Được tạo bởi AI)
Trong bài viết này về TAI, tác giả còn nhấn mạnh rõ ràng: tất cả các nghiên cứu và cảnh báo sớm của TAI sẽ được trực tiếp truyền vào một tổ chức cốt lõi của Anthropic — Long-Term Benefit Trust (Quỹ Lợi ích Dài hạn). Sứ mệnh của LTBT là theo dõi chặt chẽ các quyết định kinh doanh của công ty, đảm bảo rằng mỗi hành động của Anthropic đều hướng tới lợi ích dài hạn của toàn nhân loại, chứ không phải nhằm tối đa hóa lợi nhuận báo cáo ngắn hạn.
Giống hệt câu danh ngôn từng làm chấn động giới của Google: “Đừng trở thành kẻ xấu”: Thông qua TAI, A社 đang thông báo với cả thế giới rằng, khi các đối thủ đang cạnh tranh xem ai chạy nhanh hơn, chúng tôi không chỉ chạy nhanh, mà còn nghiên cứu cách phanh lại.
Việc kỳ vọng các đế chế công nghệ tự giám sát chính mình quả thực hơi phi lý, nhưng trong thời đại hiện nay, khi tất cả đều bịt mắt và hàn chặt bàn đạp ga để lao vun vút, việc một người chơi hàng đầu chủ động thành lập viện nghiên cứu TAI, đầu tư tiền thật vào việc xây dựng các chỉ số kinh tế, mô phỏng sự bùng nổ trí tuệ và nghiên cứu sự suy thoái của bộ não con người, đã là điều đáng để bàn luận. Vì vậy, Lei Technology đã khẳng định ngay từ đầu rằng việc ra mắt TAI quan trọng hơn nhiều so với việc A社 trực tiếp công bố một mô hình mới.
Phụ lục: Chương trình chính thức của TAI, được dịch bởi Google Gemini
Tại Anthropic Research (TAI), chúng tôi sẽ sử dụng thông tin từ các phòng thí nghiệm tiên tiến nhất để nghiên cứu tác động của trí tuệ nhân tạo đến thế giới và chia sẻ kết quả nghiên cứu của mình với công chúng. Tại đây, chúng tôi sẽ chia sẻ những câu hỏi định hướng chương trình nghiên cứu của chúng tôi.
Chương trình nghiên cứu của chúng tôi chủ yếu tập trung vào bốn lĩnh vực sau:
- Economic expansion
- Đe dọa và tính bền vững
- Hệ thống trí tuệ nhân tạo trong ứng dụng thực tế
- Nghiên cứu và phát triển được điều khiển bởi trí tuệ nhân tạo
Trong bài viết “Các quan điểm cốt lõi về an ninh trí tuệ nhân tạo”, chúng tôi đã chỉ ra rằng để tiến hành nghiên cứu an ninh hiệu quả, cần có sự tiếp xúc chặt chẽ với các hệ thống trí tuệ nhân tạo tiên tiến. Nguyên lý tương tự cũng áp dụng cho việc nghiên cứu hiệu quả về tác động của trí tuệ nhân tạo đối với an ninh, kinh tế và xã hội.
Tại Anthropic, chúng tôi đã bắt đầu chứng kiến những thay đổi căn bản trong các lĩnh vực như kỹ sư phần mềm. Chúng tôi đang chứng kiến cấu trúc kinh tế nội bộ của Anthropic bắt đầu chuyển đổi, các hệ thống chúng tôi xây dựng cũng đối mặt với những mối đe dọa mới, và những dấu hiệu đầu tiên của trí tuệ nhân tạo đang thúc đẩy nhanh quá trình tự nghiên cứu và phát triển của chính trí tuệ nhân tạo. Để tối đa hóa lợi ích từ những tiến bộ của trí tuệ nhân tạo, chúng tôi muốn chia sẻ càng nhiều thông tin này càng tốt. Chúng tôi đang nghiên cứu những biến động này sẽ ảnh hưởng đến thế giới bên ngoài như thế nào, và công chúng có thể giúp định hướng những thay đổi này ra sao.
Tại TAI, chúng tôi sẽ nghiên cứu tác động của trí tuệ nhân tạo trong thế giới thực từ góc độ các phòng thí nghiệm tiên tiến, sau đó công bố các kết quả nghiên cứu này để giúp các tổ chức bên ngoài, chính phủ và công chúng đưa ra quyết định tốt hơn về sự phát triển của trí tuệ nhân tạo.
Chúng tôi sẽ chia sẻ các nghiên cứu, dữ liệu và công cụ để giúp các nhà nghiên cứu cá nhân và tổ chức thực hiện các chủ đề nghiên cứu này một cách dễ dàng hơn. Cụ thể, chúng tôi sẽ chia sẻ:
- Chúng tôi sẽ thu thập thông tin chi tiết hơn từ các chỉ số kinh tế con người với tần suất cao hơn để hiểu rõ ảnh hưởng và ứng dụng của trí tuệ nhân tạo đối với thị trường lao động. Chúng tôi sẽ nỗ lực trở thành tín hiệu cảnh báo sớm về những thay đổi và đảo lộn lớn.
- Nghiên cứu xem những lĩnh vực xã hội nào cần đầu tư nhiều nhất để tăng cường khả năng chống chịu trước các rủi ro bảo mật mới do trí tuệ nhân tạo mang lại.
- Giới thiệu chi tiết hơn về cách Anthropic sử dụng các công cụ AI mới để tăng tốc tiến độ công việc, cũng như ý nghĩa của việc hệ thống AI có thể tự cải tiến đệ quy.
TAI sẽ ảnh hưởng đến các quyết định của Anthropic. Điều này có thể thể hiện qua việc công ty chia sẻ với bên ngoài một số dữ liệu mà họ vốn không chia sẻ (ví dụ: các chỉ số kinh tế), hoặc công bố công nghệ theo cách khác (ví dụ: phân tích mối đe dọa mạng, cung cấp dữ liệu hỗ trợ cho các chương trình như dự án “Glass Wings”).
Chúng tôi kỳ vọng rằng các nghiên cứu do Viện TAI thực hiện sẽ ngày càng trở thành cơ sở tham khảo quan trọng đối với Quỹ Tin tưởng Lợi ích Dài hạn của Anthropic (LTBT). Sứ mệnh của LTBT là đảm bảo Anthropic liên tục tối ưu hóa các hành động của mình để phục vụ lợi ích lâu dài của nhân loại. Chúng tôi đã cùng với LTBT và các nhân viên trong các bộ phận của Anthropic xây dựng kế hoạch nghiên cứu này.
Đây là một chương trình linh hoạt, không cố định. Chúng tôi sẽ liên tục hoàn thiện các vấn đề này dựa trên bằng chứng tích lũy và dự kiến sẽ xuất hiện một số vấn đề mới chưa được đề cập hôm nay. Chúng tôi hoan nghênh phản hồi về chương trình này và sẽ điều chỉnh dựa trên thông tin thu thập được từ các cuộc thảo luận.
Nếu bạn quan tâm đến việc giúp chúng tôi giải đáp những câu hỏi này, chúng tôi hoan nghênh bạn ứng tuyển trở thành nghiên cứu viên của Anthropic. Chương trình nghiên cứu viên kéo dài bốn tháng, được hướng dẫn bởi các thành viên nhóm TAI, và bạn sẽ có cơ hội nghiên cứu một hoặc nhiều vấn đề liên quan. Bạn có thể tìm hiểu thêm thông tin và ứng tuyển cho đợt chương trình tiếp theo tại đây.
Chương trình nghiên cứu của chúng tôi:
Ngày cập nhật cuối cùng: 7 tháng 5 năm 2026
Economic expansion
Việc hiểu cách việc triển khai các hệ thống trí tuệ nhân tạo ngày càng mạnh mẽ đang thay đổi nền kinh tế là vô cùng quan trọng. Chúng ta cũng cần phát triển các dữ liệu kinh tế và khả năng dự báo cần thiết để lựa chọn các cách triển khai trí tuệ nhân tạo mang lại lợi ích cho công chúng.
Để giải đáp các câu hỏi được đặt ra trong trụ cột này, chúng tôi sẽ hoàn thiện thêm dữ liệu trong Chỉ số Kinh tế Con người. Chúng tôi cũng sẽ khám phá các phương pháp khác để cải thiện mô hình về cách trí tuệ nhân tạo mạnh mẽ ảnh hưởng đến xã hội, bất kể ảnh hưởng đó dẫn đến thất nghiệp, tăng trưởng kinh tế chưa từng có, hay các khía cạnh khác.
Ứng dụng và lan rộng của trí tuệ nhân tạo
- Ai đang được sử dụng bởi ai? Nghiên cứu và phát triển trí tuệ nhân tạo tập trung vào một vài công ty tại một vài quốc gia, nhưng việc triển khai lại mang tính toàn cầu. Điều gì quyết định một quốc gia, khu vực hay thành phố có thể tiếp cận trí tuệ nhân tạo? Nếu có thể tiếp cận, họ sẽ thu được giá trị kinh tế từ đó như thế nào? Những chính sách và mô hình kinh doanh nào có thể thay đổi hiệu quả hiện trạng này? Các mô hình trọng số miễn phí hoặc trọng số mở lại thúc đẩy sự thay đổi này như thế nào?
- Ứng dụng trí tuệ nhân tạo ở cấp doanh nghiệp: Các doanh nghiệp áp dụng trí tuệ nhân tạo vì lý do gì? Hệ quả của nó là gì? Trí tuệ nhân tạo thay đổi quy mô mà doanh nghiệp hoặc nhóm có thể đạt được hiệu suất tối đa như thế nào? Mức độ tập trung ứng dụng trí tuệ nhân tạo giữa các doanh nghiệp ra sao? Sự thay đổi trong mức độ tập trung ứng dụng trí tuệ nhân tạo chuyển hóa thành lợi nhuận và tỷ lệ lao động như thế nào? Nếu một nhóm hoặc doanh nghiệp 3 người hiện nay có thể hoàn thành công việc trước đây cần 300 người, cấu trúc công nghiệp sẽ thay đổi ra sao? Hoặc, nếu doanh nghiệp có thể dễ dàng tập trung tri thức hơn, và hành động này mang lại lợi ích quy mô, liệu chúng ta có sẽ chứng kiến những doanh nghiệp lớn hơn, mở rộng rộng hơn, với động lực mạnh mẽ hơn trong việc giám sát nhân viên một cách hệ thống?
- Trí tuệ nhân tạo có phải là một công nghệ phổ quát không? Trí tuệ nhân tạo có tuân theo mô hình của các “công nghệ phổ quát” trước đây, tức là được áp dụng nhanh nhất trong các ứng dụng thương mại mang lại lợi nhuận cao, nhưng lại được áp dụng chậm nhất trong các lĩnh vực mà lợi ích xã hội vượt quá lợi ích tư nhân? Có tồn tại chính sách hoặc quyết định nào có thể thay đổi xu hướng này không?
Productivity and economic growth
- Tăng trưởng năng suất: Trí tuệ nhân tạo sẽ ảnh hưởng như thế nào đến tốc độ đổi mới và tăng trưởng năng suất của toàn bộ nền kinh tế?
- Chia sẻ lợi ích: Những cơ chế phân bổ trước hoặc tái phân bổ nào có thể hiệu quả trong việc lan tỏa rộng rãi lợi ích từ việc phát triển và triển khai trí tuệ nhân tạo?
- Chi phí giao dịch thị trường: Trí tuệ nhân tạo ảnh hưởng như thế nào đến hệ thống giao dịch và chi phí giao dịch trong thị trường? Khi nào nên để đại diện thực hiện đàm phán thay bạn để nâng cao hiệu quả thị trường và kết quả công bằng? Khi nào thì không nên?
Ảnh hưởng rộng rãi đến thị trường lao động
- Trí tuệ nhân tạo và việc làm: Trí tuệ nhân tạo sẽ thay đổi tình hình việc làm trong các lĩnh vực kinh tế như thế nào? Khi trí tuệ nhân tạo tự động hóa các khâu hiện có trong nền kinh tế, những nhiệm vụ và công việc mới nào có thể xuất hiện? Những thay đổi này sẽ khác biệt ra sao giữa các khu vực và quốc gia? Khảo sát “Chỉ số Kinh tế Con người” của chúng tôi sẽ cung cấp hàng tháng thông tin về cách mọi người nhìn nhận tác động của trí tuệ nhân tạo đối với công việc của họ và kỳ vọng của họ đối với tương lai. Chúng tôi cũng sẽ cập nhật chỉ số kinh tế để chia sẻ dữ liệu chi tiết và tần suất cao hơn.
- Có thể điều chỉnh tốc độ phổ biến của trí tuệ nhân tạo không? Các ngân hàng trung ương trên thế giới sử dụng các “công cụ điều tiết” như lãi suất chính sách và hướng dẫn định hướng để kiềm chế lạm phát. Liệu các công ty trí tuệ nhân tạo (ở cấp độ ngành, hợp tác với chính phủ) có thể áp dụng các công cụ điều tiết tương tự để kiểm soát tốc độ phổ biến của trí tuệ nhân tạo từng ngành một? Việc làm như vậy có mang lại lợi ích công cộng rõ rệt không?
Tương lai của công việc và nơi làm việc
- Quan điểm của người lao động về công việc: Người lao động trong các ngành nghề khác nhau nhìn nhận sự thay đổi nghề nghiệp như thế nào? Họ có ảnh hưởng bao nhiêu đến những thay đổi này? Liệu sức mạnh của “người lao động” có thể được bảo vệ hoặc chuyển đổi không?
- Hệ thống đào tạo nhân tài chuyên môn: Nhiều ngành nghề đều dựa vào các vị trí cấp nhập môn (ví dụ: trợ lý luật sư, phân tích viên cấp nhập môn và lập trình viên trợ lý) để đào tạo những chuyên gia cấp cao trong tương lai. Nếu trí tuệ nhân tạo thay thế những công việc trước đây giúp tích lũy chuyên môn, thì con người ban đầu sẽ làm thế nào để trở thành chuyên gia? Điều này có ý nghĩa gì đối với nguồn nhân sự cấp cao lâu dài trong một lĩnh vực nhất định?
- Học tập vì tương lai: Mọi người nên học gì hôm nay để chuẩn bị cho tương lai? Những nghề nghiệp nào sẽ xuất hiện trong tương lai? Trí tuệ nhân tạo sẽ thay đổi cách học tập và phát triển kỹ năng chuyên môn như thế nào?
- Các vai trò có lương: Nếu trí tuệ nhân tạo làm giảm đáng kể vị trí cốt lõi của các công việc có lương trong cuộc sống con người, thì trong điều kiện nào con người mới có thể tái phân bổ thời gian và năng lượng vào những nguồn ý nghĩa khác? Chúng ta có thể học được gì từ những nhóm người trong lịch sử hoặc hiện đại mà công việc khan hiếm hoặc không cần thiết? Xã hội nên ứng phó với sự chuyển đổi này như thế nào?
Đe dọa và tính bền vững
Các hệ thống trí tuệ nhân tạo thường có thể đồng thời nâng cao nhiều khả năng, bao gồm cả khả năng hai mục đích. Ví dụ, các hệ thống trí tuệ nhân tạo được nâng cao khả năng sinh học cũng dễ dàng hơn trong việc chế tạo vũ khí sinh học. Các hệ thống trí tuệ nhân tạo có khả năng lập trình máy tính mạnh mẽ cũng dễ dàng hơn trong việc xâm nhập vào các hệ thống máy tính. Nếu chúng ta có thể hiểu rõ hơn về các mối đe dọa mà hệ thống trí tuệ nhân tạo có thể làm trầm trọng thêm, xã hội sẽ dễ dàng ứng phó hơn với tình hình mối đe dọa đang thay đổi này.
Chúng tôi đặt ra những câu hỏi này nhằm hỗ trợ xây dựng các mối quan hệ đối tác để tăng cường khả năng của thế giới trong việc ứng phó với trí tuệ nhân tạo mang tính biến đổi và thiết lập hệ thống cảnh báo sớm cho các mối đe dọa mới có thể phát sinh. Nhiều câu hỏi trong số này sẽ định hướng chương trình nghiên cứu của đội đỏ tiên tiến của chúng tôi.
Đánh giá rủi ro và khả năng sử dụng kép:
- Công nghệ đa mục đích: Trí tuệ nhân tạo mạnh mẽ về bản chất có tính đa mục đích: vừa có thể cải thiện các công cụ trong y tế và giáo dục, vừa có thể được sử dụng để giám sát và đàn áp. Chúng ta có thể xây dựng các công cụ quan sát để hiểu liệu tình huống này có đang xảy ra và xảy ra như thế nào không?
- Làm thế nào để định giá rủi ro một cách hợp lý: Có những phương pháp nào hiệu quả và do thị trường thúc đẩy để tăng cường khả năng chống chịu của xã hội trước những mối đe dọa dự kiến từ các hệ thống trí tuệ nhân tạo? Chúng ta có thể phát triển các phương pháp định giá rủi ro mới, hoặc các công cụ kỹ thuật và tổ chức con người để tăng cường khả năng chống chịu trước những mối đe dọa có thể dự đoán được (ví dụ: khả năng tấn công mạng của trí tuệ nhân tạo ngày càng tăng)?
- Cân bằng giữa tấn công và phòng thủ: Liệu năng lực được trang bị bởi trí tuệ nhân tạo có thực sự mang lại lợi thế căn bản cho bên tấn công trong các lĩnh vực như không gian mạng và an ninh sinh học? Khi trí tuệ nhân tạo được áp dụng vào các lĩnh vực truyền thống hơn, chẳng hạn như ngày càng tích hợp với các hệ thống chỉ huy và kiểm soát, liệu nó có cũng mang lại lợi thế cho bên tấn công? Nói rộng hơn, trí tuệ nhân tạo sẽ thay đổi bản chất của xung đột con người như thế nào?
Thiết lập các biện pháp giảm thiểu rủi ro:
- Kế hoạch ứng phó khủng hoảng: Trong thời kỳ Chiến tranh Lạnh, Tổng thống Hoa Kỳ từng thiết lập đường dây nóng trực tiếp với Điện Kremlin để sử dụng trong trường hợp xảy ra khủng hoảng hạt nhân. Vậy nếu một hệ thống trí tuệ nhân tạo gây ra khủng hoảng, thì cần có cơ sở hạ tầng địa chính trị nào? Cơ sở hạ tầng này không nhất thiết phải giữa các quốc gia, mà có thể giữa các công ty hoặc giữa các công ty.
- Cơ chế phòng thủ nhanh hơn: Khả năng trí tuệ nhân tạo có thể tiến bộ vượt bậc trong vài tháng, trong khi phản ứng của quy định, bảo hiểm và hạ tầng lại cần vài năm. Chúng ta nên làm gì để thu hẹp khoảng cách này? Các cơ chế phòng thủ như vá tự động, phát hiện mối đe dọa bằng trí tuệ nhân tạo hoặc khả năng phản ứng được triển khai trước, liệu có thể theo kịp tốc độ và quy mô của các cuộc tấn công bằng trí tuệ nhân tạo? Hay sự bất cân xứng này mang tính cấu trúc? Chúng ta nên triển khai các cơ chế phòng thủ này một cách hiệu quả nhất như thế nào?
Khả năng tình báo để giám sát
- Ảnh hưởng của trí tuệ nhân tạo đối với giám sát: Trí tuệ nhân tạo sẽ thay đổi cách thức hoạt động của giám sát như thế nào? Nó sẽ giảm chi phí giám sát, tăng hiệu quả giám sát, hay cả hai?
Hệ thống trí tuệ nhân tạo trong ứng dụng thực tế
Sự tương tác giữa con người, tổ chức và các hệ thống trí tuệ nhân tạo sẽ trở thành nguồn lực quan trọng thúc đẩy thay đổi xã hội. Hiểu cách các hệ thống trí tuệ nhân tạo có thể thay đổi con người và tổ chức tương tác với chúng là lĩnh vực nghiên cứu cốt lõi của đội ngũ tác động xã hội của chúng tôi. Để nghiên cứu những thay đổi này, chúng tôi đang cải tiến các công cụ hiện có và phát triển các công cụ mới nhằm thực hiện các nghiên cứu, bao gồm từ phần mềm nâng cao khả năng quan sát nền tảng đến các công cụ thực hiện khảo sát định tính quy mô lớn.
Ảnh hưởng của trí tuệ nhân tạo đối với cá nhân và xã hội:
- Triết học nhận thức tập thể: Khi một bộ phận lớn dân số tham khảo cùng một số ít mô hình, nhận thức của chúng ta thay đổi như thế nào? Chúng ta có thể tìm ra cách đo lường những thay đổi quy mô lớn về niềm tin, phong cách viết và phương pháp giải quyết vấn đề do việc sử dụng chung trí tuệ nhân tạo gây ra không?
- Tư duy phản biện: Khi các hệ thống trí tuệ nhân tạo trở nên mạnh mẽ và đáng tin cậy hơn, làm thế nào chúng ta có thể phát hiện và ngăn chặn sự suy giảm khả năng tư duy phản biện của con người do ngày càng phụ thuộc vào phán quyết của trí tuệ nhân tạo?
- Giao diện kỹ thuật: Giao diện kỹ thuật quyết định cách con người tương tác với công nghệ—tivi khiến con người trở thành khán giả bị động, trong khi máy tính giúp con người dễ dàng trở thành những người sáng tạo mang tính sáng tạo. Chúng ta có thể xây dựng những giao diện nào để cải thiện và thúc đẩy sự tự chủ của con người trong các hệ thống trí tuệ nhân tạo?
- Quản lý hệ thống hợp tác giữa con người và máy móc: Con người nên quản lý hiệu quả các đội ngũ bao gồm con người và hệ thống trí tuệ nhân tạo như thế nào? Ngược lại, các hệ thống trí tuệ nhân tạo nên quản lý các đội ngũ bao gồm con người, trí tuệ nhân tạo hoặc cả hai kết hợp như thế nào?
Nhận diện những tác động lớn do trí tuệ nhân tạo mang lại:
- Ảnh hưởng đến hành vi: Cũng như mạng xã hội khiến hành vi con người thay đổi, trí tuệ nhân tạo cũng có thể định hình hành vi con người. Những phương pháp giám sát hoặc đo lường nào có thể giúp các nhà nghiên cứu hiểu được những biến động này?
- Khuyến khích nghiên cứu: Có cơ chế và công cụ minh bạch nào cho phép công chúng rộng rãi (không chỉ là các công ty trí tuệ nhân tạo tiên tiến) dễ dàng nghiên cứu các ứng dụng trí tuệ nhân tạo trong thế giới thực không?
Hiểu và quản lý mô hình trí tuệ nhân tạo:
- Giá trị hệ thống: Giá trị mà hệ thống trí tuệ nhân tạo thể hiện là gì? Những giá trị này liên quan như thế nào đến cách hệ thống được huấn luyện? Cụ thể hơn, chúng ta có thể đo lường ảnh hưởng của “cấu thành” trí tuệ nhân tạo đến hành vi của nó sau khi triển khai như thế nào? Chúng tôi sẽ mở rộng nghiên cứu trước đây về các câu hỏi này.
- Quản trị tác nhân tự chủ: Những khía cạnh nào của luật pháp, hệ thống quản trị và cơ chế chịu trách nhiệm hiện tại có thể áp dụng cho các tác nhân AI tự chủ? Ví dụ, luật hàng hải xử lý vấn đề bỏ tàu như thế nào có liên quan đến cách luật pháp xử lý các tác nhân tự chủ không được giám sát. Ngược lại, có những khía cạnh nào trong luật hiện hành đã được áp dụng cho các tác nhân AI nhưng thực tế không nên áp dụng?
- Độ tin cậy của tác nhân: Những khía cạnh nào của tác nhân trí tuệ nhân tạo tự chủ có thể được điều chỉnh để phù hợp với các khung pháp lý, hệ thống quản trị và cơ chế chịu trách nhiệm hiện có? Ví dụ, liệu chúng ta có thể đảm bảo rằng các tác nhân trí tuệ nhân tạo có danh tính duy nhất và đáng tin cậy, ngay cả khi không có sự kiểm soát trực tiếp từ con người?
- Quản trị trí tuệ nhân tạo bằng trí tuệ nhân tạo: Làm thế nào chúng ta có thể tận dụng hiệu quả trí tuệ nhân tạo để quản trị các hệ thống trí tuệ nhân tạo? Trong những lĩnh vực nào của việc giám sát trí tuệ nhân tạo, con người có lợi thế so sánh, hoặc bắt buộc phải “tham gia” theo yêu cầu pháp lý hoặc quy phạm?
- Tương tác tác nhân: Khi các tác nhân trí tuệ nhân tạo tương tác với nhau, những chuẩn mực nào sẽ xuất hiện? Các tác nhân khác nhau thể hiện sở thích như thế nào, và những sở thích này sẽ ảnh hưởng đến các tác nhân khác ra sao?
Nghiên cứu và phát triển được điều khiển bởi trí tuệ nhân tạo
Với các hệ thống trí tuệ nhân tạo ngày càng mạnh mẽ, các nhà khoa học đang sử dụng chúng để thực hiện ngày càng nhiều nghiên cứu. Điều này có nghĩa là ngày càng nhiều nghiên cứu khoa học được thực hiện theo cách tự chủ hoặc bán tự chủ với ít sự can thiệp của con người hơn. Trong lĩnh vực nghiên cứu trí tuệ nhân tạo, các hệ thống ngày càng mạnh mẽ có thể được sử dụng để phát triển các phiên bản tiếp theo của chính chúng. Chúng ta đôi khi gọi mô hình này là “nghiên cứu và phát triển trí tuệ nhân tạo do trí tuệ nhân tạo thúc đẩy”.
Việc phát triển trí tuệ nhân tạo do trí tuệ nhân tạo điều khiển có thể là “lợi ích tự nhiên” trong việc xây dựng các hệ thống thông minh và mạnh mẽ hơn. Cũng như sự tiến bộ trong khả năng lập trình đã thúc đẩy khả năng mạng dùng cho cả mục đích dân sự và quân sự, sự tiến bộ trong khả năng khoa học có thể thúc đẩy khả năng sinh học dùng cho cả mục đích dân sự và quân sự, thì sự tiến bộ trong công việc kỹ thuật phức tạp cũng có thể tự nhiên sinh ra các hệ thống trí tuệ nhân tạo có khả năng tự phát triển trí tuệ nhân tạo.
Việc phát triển trí tuệ nhân tạo do trí tuệ nhân tạo điều khiển chứa đựng những rủi ro tiềm ẩn lớn. Khi đánh giá các biện pháp có thể thực hiện, các nhà hoạch định chính sách cực kỳ quan trọng cần hiểu rõ xu hướng thay đổi tốc độ phát triển của trí tuệ nhân tạo và liệu nghiên cứu trí tuệ nhân tạo có bắt đầu tạo ra hiệu ứng lãi kép hay không.
Artificial intelligence for artificial intelligence development
- Quản trị việc phát triển trí tuệ nhân tạo: Nếu các hệ thống trí tuệ nhân tạo được sử dụng để tự động phát triển và cải tiến chính chúng, con người làm thế nào để hiểu và kiểm soát hiệu quả các hệ thống này? Cuối cùng, gì sẽ quản trị các hệ thống này?
- Cuộc diễn tập ứng phó với thông tin bùng nổ: Chúng ta thực hiện cuộc diễn tập ứng phó với thông tin bùng nổ như thế nào? Làm thế nào để tổ chức cuộc diễn tập bàn tròn nhằm thực sự kiểm tra năng lực ra quyết định của ban lãnh đạo phòng thí nghiệm, hội đồng quản trị và chính phủ?
- Đo lường phát triển trí tuệ nhân tạo: Làm thế nào để đo tốc độ tổng thể của việc phát triển trí tuệ nhân tạo? Để thu thập thông tin này, cần những công nghệ đo lường và nền tảng kỹ thuật cơ sở nào? Làm thế nào để các chỉ số liên quan đến phát triển trí tuệ nhân tạo có thể đóng vai trò là tín hiệu cảnh báo sớm cho sự tự cải tiến đệ quy?
- Kiểm soát sự phát triển tăng tốc của trí tuệ nhân tạo: Nếu vụ nổ trí tuệ sắp xảy ra, những điểm can thiệp nào có thể làm chậm lại hoặc thay đổi tốc độ của vụ nổ này? Giả sử con người có thể can thiệp, thì những thực thể nào nên thực hiện khả năng này—chính phủ? Doanh nghiệp?
Ứng dụng của trí tuệ nhân tạo trong lĩnh vực nghiên cứu phát triển — tức là nghiên cứu các lĩnh vực khác được thúc đẩy bởi trí tuệ nhân tạo:
- Cây công nghệ: Trí tuệ nhân tạo đang thúc đẩy tốc độ phát triển của một số lĩnh vực khoa học nhanh hơn nhiều so với những lĩnh vực khác, tùy thuộc vào tính khả dụng của dữ liệu, các chỉ số đánh giá và mức độ kiến thức nào là ẩn hoặc bị giới hạn bởi thể chế. Mức độ bất cân bằng của độ dốc phát triển này là bao nhiêu? Những thay đổi do tiến bộ khoa học tạo ra có nghĩa là những vấn đề nhân loại nào sẽ được ưu tiên giải quyết?
- Biên giới gồ ghề: Khả năng mô hình mạnh hơn ở một số lĩnh vực so với những lĩnh vực khác. Những lĩnh vực có ngoại ứng tích cực lớn — ví dụ như nghiên cứu và phát triển thuốc và khoa học vật liệu — nhận được đầu tư thấp xa so với mức giá trị mà chúng đáng được hưởng. Thị trường định hướng cải tiến mô hình dựa trên lợi ích riêng, nhưng liệu chúng ta có thể cải thiện hiệu suất mô hình để ứng phó với các ngoại ứng xã hội không?
Bài viết này đến từ tài khoản WeChat "Giá Trị Nghiên Cứu" (ID: jiazhiyanjiusuo), tác giả: Định Tây
