Sắp xếp & biên dịch: Shenchao TechFlow
Khách mời: Demis Hassabis (người sáng lập DeepMind, người đoạt Giải Nobel Hóa học 2024, người phụ trách Google DeepMind)
Người dẫn chương trình: Gary Tan
Nguồn podcast: Y Combinator
Demis Hassabis: Các tác nhân, AGI & Bước đột phá khoa học lớn tiếp theo
Thời gian phát sóng: 29 tháng 4 năm 2026
Chỉnh sửa lời mở đầu
CEO của Google DeepMind, người đoạt giải Nobel Hóa học Demis Hassabis đã tham gia Y Combinator, thảo luận về những tiến bộ then chốt còn lại trên con đường hướng tới AGI, lời khuyên dành cho các doanh nhân về cách duy trì lợi thế cạnh tranh, cũng như nơi có thể xuất hiện bước đột phá khoa học lớn tiếp theo. Phán đoán thực tế nhất dành cho các doanh nhân trong lĩnh vực công nghệ sâu là: nếu bạn khởi động một dự án công nghệ sâu kéo dài 10 năm hôm nay, bạn phải đưa sự xuất hiện của AGI vào kế hoạch. Ngoài ra, ông còn tiết lộ rằng Isomorphic Labs (công ty dược phẩm AI tách ra từ DeepMind) sắp công bố tin tức quan trọng.

Câu nói nổi bật
Đường đi và mốc thời gian của AGI
- Các thành phần công nghệ hiện có này gần như chắc chắn sẽ trở thành một phần trong kiến trúc cuối cùng của AGI.
- Các vấn đề về học tập liên tục, suy luận dài hạn và một số khía cạnh của trí nhớ vẫn chưa được giải quyết; AGI cần giải quyết tất cả.
- Nếu đường thời gian AGI của bạn cũng giống như của tôi, vào khoảng năm 2030, và bạn đang bắt đầu một dự án công nghệ sâu hôm nay, thì bạn phải tính đến việc AGI sẽ xuất hiện dọc đường.
Bộ nhớ và cửa sổ ngữ cảnh
- Cửa sổ ngữ cảnh tương đương大致 với trí nhớ làm việc. Trí nhớ làm việc trung bình của con người chỉ chứa được bảy con số, trong khi chúng ta có cửa sổ ngữ cảnh lên đến hàng triệu hoặc hàng chục triệu token. Nhưng vấn đề là chúng ta nhét tất cả mọi thứ vào đó, bao gồm cả những thông tin không quan trọng và sai lệch, và hiện tại cách làm này khá thô bạo.
- Nếu bạn cần xử lý luồng video thời gian thực và lưu tất cả các token, thì một triệu token thực tế chỉ đủ khoảng 20 phút.
Khuyết điểm của suy luận
- Tôi thích chơi cờ với Gemini. Đôi khi nó nhận ra đây là một nước cờ tệ, nhưng lại không tìm được nước tốt hơn, cuối cùng lại đi vòng quanh và vẫn chọn nước cờ tệ đó. Nhưng một hệ thống suy luận chính xác không nên xảy ra tình huống này.
- Nó có thể giải được các bài toán cấp độ huy chương vàng IMO, nhưng khi đặt câu hỏi theo cách khác lại mắc lỗi toán tiểu học. Về mặt tự phản tư trong quá trình suy nghĩ của chính nó, dường như còn thiếu gì đó.
Agent và sự sáng tạo
- Để đạt được AGI, bạn cần một hệ thống có thể chủ động giải quyết vấn đề thay bạn. Agent chính là con đường đó, và tôi nghĩ chúng ta mới chỉ bắt đầu.
- Tôi vẫn chưa thấy ai dùng vibe coding để tạo ra một tựa game 3A đạt vị trí số một trên bảng xếp hạng cửa hàng ứng dụng. Với lượng nỗ lực đang đầu tư hiện tại, điều này lẽ ra nên khả thi, nhưng vẫn chưa xảy ra. Điều này cho thấy vẫn còn thiếu gì đó trong công cụ hoặc quy trình.
Distillation and small models
- Chúng tôi giả định rằng, sau sáu tháng đến một năm kể từ khi một mô hình Pro tiên tiến được ra mắt, khả năng của nó có thể được nén vào các mô hình rất nhỏ, có thể chạy trên thiết bị biên. Hiện tại, chúng tôi chưa chạm đến giới hạn mật độ thông tin về mặt lý thuyết.
Scientific discoveries and the "Einstein Test"
- Tôi đôi khi gọi đó là “kiểm tra Einstein”, tức là liệu có thể dùng kiến thức năm 1901 để huấn luyện một hệ thống, sau đó để nó tự mình suy ra những thành tựu mà Einstein đạt được năm 1905, bao gồm cả thuyết tương đối hẹp. Một khi làm được điều đó, những hệ thống này sẽ gần với việc phát minh ra những điều hoàn toàn mới.
- Giải quyết một bài toán trong Giải thưởng Thiên niên kỷ đã là điều phi thường. Nhưng khó hơn nữa là liệu có thể đề xuất một bộ câu hỏi mới cho Giải thưởng Thiên niên kỷ, những câu hỏi mà các nhà toán học hàng đầu coi là sâu sắc tương đương và xứng đáng để cả đời nghiên cứu.
Gợi ý khởi nghiệp công nghệ sâu
- Việc theo đuổi những vấn đề khó và những vấn đề đơn giản thực ra cũng gần giống nhau, chỉ khác ở cách khó mà thôi. Cuộc đời ngắn ngủi, hãy dành toàn bộ năng lượng vào những việc nếu bạn không làm thì sẽ không ai làm cả.
Con đường triển khai AGI
Gary Tan: Bạn đã suy nghĩ về AGI lâu hơn hầu hết mọi người. Dựa trên mô hình hiện tại, bạn cho rằng chúng ta đã có bao nhiêu phần của kiến trúc cuối cùng của AGI? Điều gì đang thiếu sót một cách căn bản hiện nay?
Demis Hassabis: Tôi rất chắc chắn rằng các kỹ thuật như tiền huấn luyện quy mô lớn, RLHF, chuỗi suy luận sẽ trở thành một phần của kiến trúc cuối cùng cho AGI. Những công nghệ này đã chứng minh được quá nhiều điều cho đến nay. Tôi khó có thể hình dung rằng sau hai năm nữa chúng ta sẽ phát hiện ra đây là con đường chết, điều đó không hợp lý với tôi. Nhưng trên nền tảng đã có, có lẽ vẫn còn thiếu một hoặc hai yếu tố nữa. Học liên tục (continual learning), suy luận dài hạn (long-term reasoning), một số khía cạnh của trí nhớ — vẫn còn một số vấn đề chưa được giải quyết. AGI cần phải giải quyết tất cả những điều này. Có thể các công nghệ hiện có cộng thêm một số đổi mới tiến bộ sẽ đủ để mở rộng đến mức đó, nhưng cũng có thể vẫn còn một hoặc hai điểm then chốt lớn cần được phá vỡ. Tôi không nghĩ sẽ vượt quá một hoặc hai điểm như vậy. Theo phán đoán cá nhân của tôi, xác suất tồn tại những điểm then chốt chưa được giải quyết này khoảng 50-50. Vì vậy, tại Google DeepMind, chúng tôi đang thúc đẩy cả hai hướng.
Gary Tan: Tôi đã làm việc với rất nhiều hệ thống Agent, điều khiến tôi ngạc nhiên nhất là về cơ bản, chúng đều sử dụng cùng một bộ trọng số lặp đi lặp lại. Vì vậy, khái niệm học liên tục đặc biệt thú vị, vì hiện tại chúng ta gần như đang dùng băng dính tạm thời để sửa chữa, như những thứ như “chu kỳ giấc mơ ban đêm” chẳng hạn.
Demis Hassabis: Vâng, những chu kỳ giấc mơ đó thật tuyệt vời. Chúng tôi đã từng suy nghĩ về vấn đề này trong bối cảnh tích hợp trí nhớ tình huống. Nghiên cứu tiến sĩ của tôi tập trung vào cách hải mã tích hợp thông tin mới một cách tinh tế vào hệ thống kiến thức hiện có. Bộ não làm điều này cực kỳ xuất sắc. Nó thực hiện quá trình này trong lúc ngủ, đặc biệt là trong giai đoạn ngủ mắt chuyển động nhanh (REM sleep), bằng cách lặp lại các trải nghiệm quan trọng để học hỏi từ chúng. Chương trình Atari đầu tiên của chúng tôi, DQN (Mạng Q sâu do DeepMind công bố năm 2013, lần đầu tiên đạt mức độ con người trong các trò chơi Atari bằng học tăng cường sâu), có thể nắm bắt các trò chơi Atari nhờ một phương pháp then chốt: tái trải nghiệm (experience replay). Phương pháp này được học hỏi từ thần kinh học, lặp lại liên tục các lộ trình thành công. Đó là năm 2013, trong lĩnh vực AI thời điểm đó được coi là thời kỳ cổ đại, nhưng lúc đó nó cực kỳ quan trọng.
Tôi đồng ý với bạn, hiện tại chúng ta đang dùng băng dính dán lại mọi thứ và nhét hết vào cửa sổ ngữ cảnh. Điều này cảm giác không đúng đắn. Dù chúng ta đang xây dựng máy móc thay vì não bộ sinh học, về lý thuyết có thể có cửa sổ ngữ cảnh lên đến hàng triệu, hàng chục triệu và bộ nhớ có thể hoàn hảo, nhưng chi phí tìm kiếm và truy xuất vẫn tồn tại. Vào thời điểm hiện tại, khi cần đưa ra quyết định cụ thể, việc tìm ra thông tin thực sự liên quan không hề đơn giản, ngay cả khi bạn có thể lưu trữ tất cả mọi thứ. Vì vậy, tôi nghĩ lĩnh vực bộ nhớ vẫn còn rất nhiều tiềm năng đổi mới.
Gary Tan: Thành thật mà nói, cửa sổ ngữ cảnh triệu token đã lớn hơn nhiều so với kỳ vọng của tôi và có thể làm được rất nhiều việc.
Demis Hassabis: Đối với hầu hết các kịch bản sử dụng phù hợp, nó đã đủ lớn. Nhưng hãy nghĩ xem, cửa sổ ngữ cảnh về cơ bản tương đương với trí nhớ làm việc. Trí nhớ làm việc trung bình của con người chỉ chứa được bảy con số, trong khi chúng ta có cửa sổ ngữ cảnh lên tới hàng triệu hoặc hàng chục triệu. Vấn đề là chúng ta đang nhồi nhét mọi thứ vào đó, bao gồm cả thông tin không quan trọng và sai lệch, và cách làm hiện tại khá thô lỗ. Hơn nữa, nếu bạn hiện đang xử lý luồng video thời gian thực và một cách ngây thơ ghi lại tất cả các token, thì một triệu token thực tế chỉ đủ cho khoảng 20 phút. Nhưng nếu bạn muốn hệ thống hiểu được cuộc sống của bạn trong vòng một đến hai tháng, thì con số đó vẫn còn远远不足.
Gary Tan: DeepMind luôn đầu tư sâu vào học tăng cường và tìm kiếm, triết lý này đã được lồng ghép sâu đến mức nào trong quá trình xây dựng Gemini hiện nay? Liệu học tăng cường có vẫn đang bị đánh giá thấp?
Demis Hassabis: Có thể đã bị đánh giá thấp. Sự quan tâm trong lĩnh vực này có lúc cao, lúc thấp. Từ ngày thành lập DeepMind, chúng tôi đã đang phát triển hệ thống Agent. Tất cả công việc trên Atari và AlphaGo về bản chất đều là các hệ thống Agent học tăng cường, có khả năng tự chủ hoàn thành mục tiêu, đưa ra quyết định và lập kế hoạch. Dĩ nhiên, lúc đó chúng tôi chọn lĩnh vực trò chơi vì độ phức tạp có thể kiểm soát được, sau đó dần dần tiến tới những trò chơi phức tạp hơn, ví dụ như sau AlphaGo, chúng tôi phát triển AlphaStar — về cơ bản, chúng tôi đã làm hết tất cả các trò chơi có thể làm.
Câu hỏi tiếp theo là, liệu có thể khái quát hóa các mô hình này thành mô hình thế giới hoặc mô hình ngôn ngữ, thay vì chỉ là mô hình trò chơi không. Trong vài năm qua, chúng tôi đã làm điều này. Chế độ suy nghĩ và lý luận chuỗi tư duy của tất cả các mô hình hàng đầu ngày nay về bản chất là sự quay trở lại của những gì AlphaGo đã khởi xướng vào thời điểm đó. Tôi cho rằng nhiều công việc chúng tôi đã làm cách đây nhiều năm có liên quan rất cao đến hiện tại; chúng tôi đang xem xét lại những ý tưởng cũ ấy, thực hiện chúng với quy mô lớn hơn và theo cách tổng quát hơn, bao gồm các phương pháp học tăng cường như tìm kiếm cây Monte Carlo. Những tư tưởng của AlphaGo và AlphaZero có mối liên hệ cực kỳ chặt chẽ với các mô hình nền tảng ngày nay, và tôi tin rằng phần lớn tiến bộ trong những năm tới sẽ xuất phát từ đây.
Distillation and small models
Gary Tan: Hiện tại, để thông minh hơn thì cần các mô hình lớn hơn, nhưng đồng thời các kỹ thuật tinh giản cũng đang tiến bộ, giúp các mô hình nhỏ có thể trở nên cực kỳ nhanh chóng. Mô hình Flash của các bạn rất mạnh, gần như đạt được 95% hiệu suất của các mô hình tiên tiến nhất, nhưng giá chỉ bằng một phần mười. Đúng không?
Demis Hassabis: Tôi cho đây là một trong những lợi thế cốt lõi của chúng tôi. Bạn cần xây dựng mô hình lớn nhất trước để đạt được khả năng tiên tiến. Một trong những lợi thế lớn nhất của chúng tôi là khả năng nhanh chóng tinh chỉnh và nén những khả năng đó vào các mô hình ngày càng nhỏ hơn. Phương pháp tinh chỉnh này chính là do chúng tôi phát minh ra, và hiện tại chúng tôi vẫn là dẫn đầu thế giới. Hơn nữa, chúng tôi có động lực kinh doanh mạnh mẽ để thực hiện điều này. Chúng tôi có lẽ là nền tảng ứng dụng AI lớn nhất toàn cầu, với AI Overviews và AI Mode, cùng với Gemini — hiện tại, mọi sản phẩm của Google, bao gồm cả bản đồ và YouTube, đều đang tích hợp Gemini hoặc các công nghệ liên quan. Điều này liên quan đến hàng tỷ người dùng và hàng chục sản phẩm có hàng tỷ người dùng. Chúng phải cực kỳ nhanh, hiệu quả cao, chi phí thấp và độ trễ cực thấp. Điều này tạo động lực mạnh mẽ để chúng tôi tối ưu hóa các mô hình Flash và Flash-Lite nhỏ hơn đến mức cao nhất, và tôi hy vọng cuối cùng chúng sẽ phục vụ hiệu quả cho nhiều công việc của người dùng.
Gary Tan: Tôi tò mò không biết những mô hình nhỏ này thông minh đến mức nào. Có giới hạn nào cho quá trình chưng cất không? Liệu các mô hình 50B hoặc 400B có thể thông minh như các mô hình tiên tiến nhất hiện nay không?
Demis Hassabis: Tôi không cho rằng chúng ta đã chạm đến giới hạn lý thuyết thông tin, ít nhất hiện tại chưa ai biết liệu đã chạm đến hay chưa. Có thể một ngày nào đó chúng ta sẽ gặp phải một giới hạn về mật độ thông tin, nhưng hiện tại giả định của chúng tôi là sau khi một mô hình Pro tiên tiến được ra mắt, trong vòng sáu tháng đến một năm, khả năng của nó có thể được nén vào những mô hình rất nhỏ, gần như có thể chạy trên các thiết bị biên. Bạn cũng có thể thấy điều này ở mô hình Gemma, mô hình Gemma 4 của chúng tôi thể hiện hiệu suất rất mạnh ở cùng kích thước. Tất cả đều sử dụng các kỹ thuật tinh chỉnh và tối ưu hiệu suất mô hình nhỏ. Vì vậy, tôi thực sự không thấy bất kỳ giới hạn lý thuyết nào, tôi cho rằng chúng ta còn rất xa mới đến được giới hạn đó.
Gary Tan: Hiện nay có một hiện tượng rất kỳ lạ là lượng công việc mà một kỹ sư có thể thực hiện đã tăng lên khoảng 500 đến 1000 lần so với sáu tháng trước. Một số người trong căn phòng này đang làm lượng công việc tương đương 1000 lần so với một kỹ sư của Google vào những năm 2000. Steve Yegge đã từng nói về điều này.
Demis Hassabis: Tôi cảm thấy rất hào hứng. Các mô hình nhỏ có rất nhiều ứng dụng. Một trong số đó là chi phí thấp và tốc độ nhanh, mang lại lợi ích tương tự. Trong việc viết mã hoặc các nhiệm vụ khác, bạn có thể lặp lại nhanh hơn, đặc biệt khi hợp tác với hệ thống. Một hệ thống nhanh, dù không phải tiên tiến nhất, ví dụ chỉ đạt 90% đến 95% mức tiên tiến nhất, nhưng hoàn toàn đủ dùng, và lợi ích bạn thu được từ tốc độ lặp lại còn vượt xa 10% đó.
Một hướng lớn khác là chạy các mô hình này trên các thiết bị biên, không chỉ để tăng hiệu suất mà còn để bảo vệ quyền riêng tư và an toàn. Hãy tưởng tượng các thiết bị xử lý thông tin cực kỳ cá nhân, cùng với robot—đối với robot trong nhà bạn, bạn sẽ muốn chạy một mô hình hiệu quả và mạnh mẽ tại chỗ, chỉ ủy thác nhiệm vụ cho mô hình lớn trên đám mây trong các tình huống cụ thể. Dữ liệu âm thanh và video đều được xử lý tại chỗ, dữ liệu không bao giờ rời khỏi thiết bị—tôi có thể hình dung đây sẽ là trạng thái lý tưởng cuối cùng.
Nhớ và suy luận
Gary Tan: Quay lại bối cảnh và bộ nhớ. Hiện tại mô hình là trạng thái không lưu, nếu có khả năng học liên tục, trải nghiệm của nhà phát triển sẽ như thế nào? Bạn sẽ hướng dẫn mô hình như thế nào?
Demis Hassabis: Đây là một câu hỏi rất thú vị. Thiếu khả năng học liên tục là một điểm nghẽn then chốt khiến các Agent hiện tại không thể hoàn thành các nhiệm vụ toàn diện. Hiện tại, các Agent rất hữu ích trong các giai đoạn cục bộ của nhiệm vụ, bạn có thể ghép chúng lại để làm những điều rất tuyệt vời, nhưng chúng không thể thích ứng tốt với môi trường cụ thể của bạn. Đó là lý do tại sao chúng vẫn chưa thực sự “bắn xong quên đi” — chúng cần khả năng học hỏi bối cảnh cụ thể của bạn. Để đạt được trí thông minh tổng quát hoàn toàn, vấn đề này phải được giải quyết.
Gary Tan: Hiện tại tiến triển trong suy luận đến đâu rồi? Mô hình hiện tại có chuỗi tư duy rất mạnh, nhưng vẫn mắc lỗi những sai lầm mà sinh viên năm cuối thông minh sẽ không犯. Cần sửa đổi cụ thể những gì? Bạn kỳ vọng tiến triển gì trong suy luận?
Demis Hassabis: Vẫn còn rất nhiều không gian cho các sáng tạo trong mô hình tư duy. Những gì chúng ta đang làm vẫn còn khá thô sơ và mang tính bạo lực. Có rất nhiều hướng cải tiến, chẳng hạn như theo dõi quá trình chuỗi tư duy và can thiệp giữa chừng. Tôi thường cảm thấy rằng, dù là hệ thống của chúng ta hay của đối thủ cạnh tranh, chúng đều có xu hướng tư duy quá mức và rơi vào vòng lặp.
Tôi thỉnh thoảng thích quan sát Gemini chơi cờ. Thật thú vị khi thấy tất cả các mô hình nền tảng dẫn đầu đều chơi cờ khá tệ. Việc theo dõi quy trình suy nghĩ của chúng rất có giá trị, vì cờ là một lĩnh vực được hiểu rõ, giúp tôi nhanh chóng xác định liệu nó có đi sai hướng hay suy luận có hiệu quả không. Chúng ta thấy rằng, đôi khi nó xem xét một nước đi, nhận ra đó là nước xấu, nhưng lại không tìm được nước tốt hơn, cuối cùng lại quay lại thực hiện nước xấu đó. Một hệ thống suy luận chính xác không nên xảy ra tình huống như vậy.
Sự chênh lệch lớn này vẫn còn tồn tại, nhưng việc khắc phục nó có thể chỉ cần một hoặc hai điều chỉnh. Đó là lý do tại sao bạn thấy cái gọi là “trí thông minh răng cưa” (jagged intelligence), một mặt có thể giải được các bài toán cấp huy chương vàng IMO, nhưng mặt khác, nếu đặt câu hỏi theo cách khác lại mắc lỗi toán học cấp tiểu học. Về sự tự phản tư vào quá trình tư duy của chính mình, dường như vẫn còn thiếu một chút gì đó.
Khả năng thực sự của Agent
Gary Tan: Agent là một chủ đề lớn. Có người cho đó là sự thổi phồng. Theo cá nhân tôi, nó mới chỉ bắt đầu. Đánh giá thực tế của DeepMind về khả năng của Agent là gì, và sự khác biệt so với những lời quảng bá bên ngoài là bao nhiêu?
Demis Hassabis: Tôi đồng ý với bạn rằng chúng ta mới chỉ bắt đầu. Để đạt được AGI, bạn cần một hệ thống có thể chủ động giải quyết vấn đề thay bạn. Điều này luôn rõ ràng với chúng tôi. Agent chính là con đường đó, và tôi nghĩ chúng ta mới chỉ bắt đầu. Mọi người đều đang tìm cách để Agent hoạt động hiệu quả hơn, và chúng tôi đã thực hiện rất nhiều thí nghiệm cá nhân, nhiều người trong phòng này cũng vậy. Làm thế nào để tích hợp Agent vào quy trình làm việc, khiến nó không chỉ là điểm nhấn bổ sung mà thực sự thực hiện những công việc cốt lõi. Hiện tại chúng ta vẫn đang trong giai đoạn thí nghiệm. Có lẽ chỉ trong hai đến ba tháng gần đây chúng ta mới bắt đầu tìm ra những kịch bản thực sự có giá trị. Công nghệ vừa mới đạt đến mức độ đó — không còn là những bản trình diễn mang tính chơi đùa, mà thực sự mang lại giá trị về thời gian và hiệu suất cho bạn.
Tôi thường thấy nhiều người khởi động hàng chục Agent để chúng chạy hàng chục giờ, nhưng tôi vẫn chưa chắc liệu sản lượng có tương xứng với đầu tư này hay không.
Chúng ta vẫn chưa thấy ai dùng vibe coding để tạo ra một trò chơi 3A đạt vị trí hàng đầu trên bảng xếp hạng cửa hàng ứng dụng. Bản thân tôi đã từng viết, và nhiều người trong phòng này cũng đã tạo ra một số demo nhỏ khá hay. Hiện tại, tôi có thể tạo ra một bản mẫu của trò chơi Theme Park trong vòng nửa giờ, trong khi năm 17 tuổi, tôi đã mất sáu tháng. Tôi có cảm giác rằng nếu bạn dành cả một mùa hè để làm điều đó, bạn có thể tạo ra những thứ thực sự phi thường. Nhưng nó vẫn đòi hỏi kỹ năng và linh hồn, gu thẩm mỹ của con người; bạn phải đảm bảo mang những yếu tố đó vào bất kỳ sản phẩm nào bạn xây dựng. Thực tế hiện nay vẫn chưa có đứa trẻ nào tạo ra một trò chơi bán được 10 triệu bản, trong khi với các công cụ hiện tại, điều đó lẽ ra nên khả thi. Vậy nên vẫn còn thiếu gì đó—có thể liên quan đến quy trình, hoặc công cụ. Tôi dự đoán trong vòng 6 đến 12 tháng tới sẽ chứng kiến kết quả như vậy.
Gary Tan: Mức độ tự động hóa sẽ là bao nhiêu? Tôi nghĩ sẽ không ngay lập tức trở thành hoàn toàn tự động. Con đường có khả năng xảy ra hơn là những người hiện diện ở đây đầu tiên đạt được hiệu suất gấp 1000 lần, sau đó sẽ có người sử dụng các công cụ này để tạo ra các ứng dụng và trò chơi ăn khách, và sau đó nhiều khâu hơn mới được tự động hóa.
Demis Hassabis: Vâng, đây chính là điều bạn nên xem trước.
Gary Tan: Một phần nguyên nhân là vì một số người thực sự đã làm như vậy, nhưng họ không muốn công khai cho biết Agent đã hỗ trợ bao nhiêu.
Demis Hassabis: Có thể vậy. Nhưng tôi muốn nói về vấn đề sáng tạo. Tôi thường lấy ví dụ về AlphaGo, mọi người đều biết nước đi thứ 37 ở ván thứ hai. Đối với tôi, tôi luôn chờ đợi khoảnh khắc như vậy xuất hiện; sau khi nó xảy ra, tôi mới khởi động các dự án khoa học như AlphaFold. Chúng tôi bắt đầu làm AlphaFold ngay ngày hôm sau khi trở về từ Seoul, đó là mười năm trước. Lần này tôi đến Hàn Quốc để kỷ niệm 10 năm AlphaGo.
Nhưng chỉ bước ra khỏi Move 37 là chưa đủ. Nó thật tuyệt vời và hữu ích. Nhưng hệ thống này có thể tự sáng tạo ra cờ vây không? Nếu bạn cung cấp cho nó một mô tả cấp cao, ví dụ: “một trò chơi mà quy tắc có thể học trong năm phút nhưng khó hoàn toàn làm chủ suốt đời, mang tính thẩm mỹ tinh tế và có thể hoàn thành một ván trong một buổi chiều”, sau đó hệ thống trả về kết quả là cờ vây. Hệ thống ngày nay chưa thể làm được điều đó. Vấn đề là tại sao?
Gary Tan: Có thể trong số những người có mặt ở đây sẽ có người làm được.
Demis Hassabis: Nếu ai đó đã làm được điều đó, thì vấn đề không phải ở hệ thống thiếu gì, mà là cách chúng ta sử dụng hệ thống có vấn đề. Có lẽ đó mới chính là câu trả lời đúng. Có thể hệ thống ngày nay đã có khả năng đó, chỉ cần một nhà sáng tạo đủ thiên tài để kích hoạt nó, cung cấp linh hồn cho dự án, đồng thời người đó phải hòa quyện sâu sắc với công cụ, gần như trở thành một với công cụ. Nếu bạn dành cả ngày đêm bên những công cụ này và sở hữu sự sáng tạo sâu sắc, bạn có thể tạo ra những điều vượt ngoài tưởng tượng.
Mã nguồn mở và mô hình đa mô态
Gary Tan: Hãy chuyển sang chủ đề khác về mã nguồn mở. Việc ra mắt gần đây của Gemma cho phép các mô hình cực kỳ mạnh mẽ chạy trên thiết bị cục bộ. Bạn nghĩ sao? Liệu AI có trở thành thứ mà người dùng tự kiểm soát, thay vì chủ yếu bị giới hạn trên đám mây? Điều này có thay đổi ai có thể sử dụng các mô hình này để xây dựng sản phẩm không?
Demis Hassabis: Chúng tôi là những người ủng hộ mạnh mẽ cho nguồn mở và khoa học mở. Bạn đã nhắc đến AlphaFold, chúng tôi đã hoàn toàn mở nguồn miễn phí. Các công trình khoa học của chúng tôi cho đến nay vẫn được công bố trên các tạp chí hàng đầu. Về Gemma, chúng tôi muốn tạo ra các mô hình hàng đầu thế giới với quy mô tương đương. Hiện tại, Gemma đã được tải xuống khoảng 40 triệu lần, dù mới chỉ ra mắt được hai tuần rưỡi.
Tôi cũng cho rằng việc có sự hiện diện của nền tảng công nghệ phương Tây trong lĩnh vực mã nguồn mở là rất quan trọng. Các mô hình mã nguồn mở của Trung Quốc rất xuất sắc và hiện đang dẫn đầu trong lĩnh vực này, nhưng chúng tôi cho rằng Gemma rất cạnh tranh ở cùng quy mô.
Chúng tôi còn gặp vấn đề về tài nguyên, không ai có đủ năng lực tính toán dư dả để chạy hai mô hình前沿 kích thước đầy đủ. Do đó, quyết định hiện tại của chúng tôi là: sử dụng mô hình biên cho Android, kính thông minh, robot, v.v., và tốt nhất nên mở nguồn hoàn toàn, vì một khi đã được triển khai trên thiết bị, chúng đã bị phơi bày rồi, vậy thì hãy mở hoàn toàn ngay từ đầu. Chúng tôi đã thống nhất chiến lược mở nguồn ở cấp độ nano, điều này cũng hợp lý về mặt chiến lược.
Gary Tan: Trước khi lên sân khấu, tôi đã trình diễn hệ điều hành AI mà tôi đã tạo ra, tôi có thể tương tác trực tiếp với Gemini thông qua giọng nói. Tôi khá căng thẳng khi trình diễn, nhưng may mắn là nó đã hoạt động thành công. Gemini được xây dựng từ đầu với khả năng đa mô态. Tôi đã sử dụng nhiều mô hình khác nhau, nhưng chưa có mô hình nào có thể sánh được với Gemini về khả năng tương tác trực tiếp từ giọng nói đến mô hình, kết hợp với khả năng gọi công cụ và hiểu ngữ cảnh sâu sắc.
Demis Hassabis: Đúng vậy. Một lợi thế chưa được nhận thức đầy đủ của chuỗi Gemini là chúng tôi đã xây dựng nó từ đầu với khả năng đa mô态. Điều này khiến giai đoạn khởi đầu khó khăn hơn so với chỉ xử lý văn bản, nhưng chúng tôi tin rằng sẽ được hưởng lợi lâu dài, và hiện tại những lợi ích đó đã bắt đầu được hiện thực hóa. Ví dụ, trong lĩnh vực mô hình thế giới, chúng tôi đã xây dựng Genie (mô hình môi trường sinh tương tác do DeepMind phát triển) dựa trên Gemini. Tương tự trong lĩnh vực robot, Gemini Robotics sẽ được xây dựng trên nền tảng mô hình đa mô态, và lợi thế của chúng tôi trong đa mô态 sẽ trở thành hàng rào cạnh tranh. Chúng tôi cũng ngày càng sử dụng Gemini nhiều hơn tại Waymo (công ty tự lái thuộc Alphabet).
Hãy tưởng tượng một trợ lý kỹ thuật số đồng hành cùng bạn trong thế giới thực, có thể xuất hiện trên điện thoại hoặc kính của bạn, cần hiểu được thế giới vật lý và môi trường xung quanh bạn. Hệ thống của chúng tôi cực kỳ mạnh mẽ trong lĩnh vực này. Chúng tôi sẽ tiếp tục đầu tư vào hướng đi này, và tôi cho rằng lợi thế dẫn đầu của chúng tôi trong các vấn đề này là rất lớn.
Gary Tan: Chi phí suy luận đang giảm nhanh chóng. Khi suy luận gần như miễn phí, điều gì trở nên khả thi? Hướng tối ưu hóa của nhóm bạn có vì thế mà thay đổi không?
Demis Hassabis: Tôi không chắc liệu việc suy luận có thực sự miễn phí hay không, vì nghịch lý Jevons vẫn tồn tại. Tôi cho rằng cuối cùng mọi người sẽ sử dụng hết toàn bộ tài nguyên tính toán mà họ có thể tiếp cận. Hãy tưởng tượng hàng triệu Agent phối hợp làm việc cùng nhau, hoặc một nhóm nhỏ Agent cùng suy nghĩ theo nhiều hướng khác nhau rồi tích hợp kết quả. Chúng tôi đều đang thử nghiệm những hướng này, và tất cả những điều này đều sẽ tiêu tốn nguồn tài nguyên suy luận khả dụng.
Về năng lượng, nếu chúng ta giải quyết được một vài vấn đề như nhiệt hạch kiểm soát được, siêu dẫn ở nhiệt độ phòng, pin tối ưu, v.v.—tôi cho rằng chúng ta sẽ làm được thông qua khoa học vật liệu—thì chi phí năng lượng có thể tiến gần đến mức bằng không. Tuy nhiên, các khâu như sản xuất vật lý chip vẫn còn những điểm nghẽn, ít nhất trong vài thập kỷ tới. Do đó, các hạn ngạch cho đầu suy luận vẫn sẽ tồn tại và chúng ta vẫn cần sử dụng một cách hiệu quả.
Bước đột phá khoa học tiếp theo
Gary Tan: May mắn là các mô hình nhỏ ngày càng thông minh hơn. Có rất nhiều nhà sáng lập trong lĩnh vực sinh học và công nghệ sinh học hiện diện ở đây. AlphaFold 3 đã vượt ra ngoài protein, mở rộng sang các phân tử sinh học rộng hơn. Chúng ta còn cách xa việc mô phỏng hệ thống tế bào hoàn chỉnh bao nhiêu? Đây có phải là một vấn đề ở mức độ khó hoàn toàn khác không?
Demis Hassabis: Isomorphic Labs đang tiến triển rất tốt. AlphaFold chỉ là một khâu trong quy trình phát hiện thuốc, chúng tôi đang thực hiện các nghiên cứu sinh hóa liên quan, thiết kế các hợp chất có tính chất phù hợp, và sẽ có các thông báo quan trọng sắp tới.
Mục tiêu cuối cùng của chúng tôi là tạo ra một tế bào ảo hoàn chỉnh, một bộ mô phỏng tế bào chức năng đầy đủ mà bạn có thể gây nhiễu, với đầu ra đủ gần với kết quả thực nghiệm và có ích thực tế. Bạn có thể bỏ qua rất nhiều bước tìm kiếm, tạo ra lượng lớn dữ liệu tổng hợp để huấn luyện các mô hình khác, giúp chúng dự đoán hành vi của tế bào thật.
Tôi ước tính còn khoảng mười năm nữa mới đạt được tế bào ảo hoàn chỉnh. Tại phía khoa học của DeepMind, chúng tôi đang bắt đầu từ nhân tế bào ảo, vì nhân tế bào tương đối tự chứa. Vấn đề then chốt ở đây là liệu có thể tách ra một mảnh có độ phức tạp phù hợp, đủ tự chứa để bạn có thể xấp xỉ hợp lý các đầu vào và đầu ra của nó, sau đó tập trung vào hệ con này. Về mặt này, nhân tế bào là một lựa chọn rất phù hợp.
Một vấn đề khác là dữ liệu chưa đủ. Tôi đã trao đổi với các nhà khoa học hàng đầu trong lĩnh vực kính hiển vi điện tử và các công nghệ hình ảnh khác. Nếu có thể hình ảnh hóa tế bào sống mà không giết chết chúng, đó sẽ là một bước đột phá. Bởi vì khi đó, chúng ta có thể chuyển nó thành một vấn đề về thị giác—mà chúng ta đã biết cách giải quyết. Tuy nhiên, theo hiểu biết của tôi, hiện tại chưa có công nghệ nào có thể hình ảnh hóa tế bào sống và đang hoạt động ở độ phân giải nano mà không phá hủy chúng. Bạn có thể chụp được những hình ảnh tĩnh ở độ phân giải đó, điều này đã rất tinh vi và rất thú vị, nhưng vẫn chưa đủ để trực tiếp biến nó thành một vấn đề về thị giác.
Vì vậy, có hai con đường: một là giải pháp dựa trên phần cứng và dữ liệu;另一个 là xây dựng bộ mô phỏng có thể học tốt hơn để mô phỏng các hệ thống động lực học này.
Gary Tan: Bạn không chỉ xem sinh học. Vật liệu học, phát hiện thuốc, mô hình hóa khí hậu, toán học—nếu phải xếp hạng, lĩnh vực khoa học nào sẽ bị biến đổi sâu sắc nhất trong năm năm tới?
Demis Hassabis: Mỗi lĩnh vực đều khiến người ta háo hức, và đó cũng là lý do tại sao đây luôn là đam mê lớn nhất của tôi, cũng là lý do tôi theo đuổi AI trong hơn 30 năm qua. Tôi luôn tin rằng AI sẽ là công cụ tối thượng của khoa học, giúp thúc đẩy sự hiểu biết khoa học, khám phá khoa học, y học và nhận thức của chúng ta về vũ trụ.
Chúng tôi ban đầu diễn đạt sứ mệnh của mình theo hai bước. Bước đầu tiên là giải quyết trí tuệ, tức là xây dựng AGI; bước thứ hai là dùng nó để giải quyết tất cả các vấn đề còn lại. Sau đó, chúng tôi buộc phải điều chỉnh cách diễn đạt vì có người hỏi: “Các bạn thật sự muốn nói là giải quyết tất cả các vấn đề sao?”—Chúng tôi đúng là có ý đó. Hiện nay, mọi người bắt đầu hiểu được điều đó có nghĩa là gì. Cụ thể, tôi đang nói đến những lĩnh vực khoa học mà tôi gọi là “các vấn đề nút gốc”—những lĩnh vực mà khi đạt được đột phá sẽ mở ra các nhánh khám phá hoàn toàn mới. AlphaFold là mô hình đầu tiên cho những gì chúng tôi muốn làm. Trên toàn cầu, hơn ba triệu nhà nghiên cứu, gần như mọi nhà nghiên cứu sinh học hiện nay đều đang sử dụng AlphaFold. Tôi nghe một số bạn bè là giám đốc điều hành của các công ty dược phẩm nói rằng, hầu hết các loại thuốc được phát hiện trong tương lai sẽ đều sử dụng AlphaFold ở một khâu nào đó trong quy trình phát hiện thuốc. Chúng tôi rất tự hào về điều này, và đây chính là loại tác động mà chúng tôi mong đợi AI có thể tạo ra. Nhưng tôi cho rằng đây mới chỉ là khởi đầu.
Tôi không thể nghĩ ra một lĩnh vực khoa học hay kỹ thuật nào mà AI không thể hỗ trợ. Những lĩnh vực bạn đề cập, tôi cho rằng chúng đang ở giai đoạn “thời điểm AlphaFold 1” — kết quả đã rất hứa hẹn, nhưng vẫn chưa thực sự giải quyết được những thách thức lớn của lĩnh vực đó. Trong hai năm tới, chúng ta sẽ có rất nhiều tiến bộ để bàn luận trong tất cả những lĩnh vực này, từ khoa học vật liệu đến toán học.
Gary Tan: Cảm giác như kiểu Prometheus, mang đến cho con người một khả năng hoàn toàn mới.
Demis Hassabis: Đúng vậy. Tất nhiên, như thông điệp của câu chuyện Prometheus, chúng ta cũng phải cẩn trọng với việc khả năng này được sử dụng như thế nào, ở đâu, và nguy cơ lạm dụng cùng một bộ công cụ.
Kinh nghiệm thành công
Gary Tan: Có nhiều người trong phòng này đang cố gắng thành lập các công ty ứng dụng AI vào khoa học. Theo bạn, sự khác biệt giữa những công ty khởi nghiệp thực sự thúc đẩy ranh giới前沿 và những công ty chỉ đơn giản là bao phủ một lớp API lên các mô hình cơ sở rồi tự xưng là “AI for Science” là gì?
Demis Hassabis: Tôi đang nghĩ nếu hôm nay tôi ngồi ở vị trí của các bạn, xem các dự án tại Y Combinator, tôi sẽ làm gì. Một điều là bạn phải dự đoán xu hướng của công nghệ AI, điều này vốn đã rất khó. Nhưng tôi thực sự tin rằng kết hợp xu hướng AI với một lĩnh vực công nghệ sâu khác sẽ mang lại cơ hội to lớn. Điểm giao nhau này, dù là vật liệu, y học hay các lĩnh vực khoa học thực sự khó khăn khác, đặc biệt là những lĩnh vực liên quan đến thế giới nguyên tử, sẽ không có lối tắt trong tương lai gần. Những lĩnh vực này sẽ không bị nhấn chìm chỉ vì bản cập nhật mô hình cơ bản tiếp theo. Nhưng nếu bạn đang tìm kiếm các hướng đi có khả năng phòng thủ cao, đây là điều tôi sẽ khuyên bạn.
Tôi luôn có xu hướng yêu thích công nghệ sâu. Những thứ bền vững và có giá trị thật sự không bao giờ dễ dàng. Tôi luôn bị thu hút bởi công nghệ sâu. Vào năm 2010, khi chúng tôi bắt đầu, AI đã là công nghệ sâu—các nhà đầu tư nói với tôi: “Chúng tôi đã biết thứ này không khả thi”, và giới học thuật cũng cho rằng đây là một hướng đi nhỏ lẻ đã được thử nghiệm và thất bại vào những năm 90. Nhưng nếu bạn tin tưởng vào ý tưởng của mình—tại sao lần này lại khác biệt, nền tảng của bạn có sự kết hợp độc đáo gì—lý tưởng nhất là bạn tự mình là chuyên gia trong cả lĩnh vực học máy và ứng dụng, hoặc bạn có thể xây dựng một đội ngũ sáng lập như vậy—thì ở đây có vô số ảnh hưởng và giá trị có thể tạo ra.
Gary Tan: Thông tin này rất quan trọng. Một khi việc gì đó đã thành công, nó trông như thể là điều hiển nhiên, nhưng trước khi thành công, mọi người đều phản đối bạn.
Demis Hassabis: Tất nhiên, bạn phải làm điều bạn thực sự đam mê. Với tôi, bất kể điều gì xảy ra, tôi sẽ vẫn làm AI. Tôi đã quyết định từ khi còn rất nhỏ rằng đó là điều có ảnh hưởng lớn nhất mà tôi có thể nghĩ đến. Và thực tế đã chứng minh điều đó, nhưng cũng có thể chúng ta đã sớm hơn 50 năm. Đồng thời, đó cũng là điều thú vị nhất mà tôi có thể tưởng tượng ra. Ngay cả khi hôm nay chúng ta vẫn đang ngồi trong một gara nhỏ, chưa tạo ra được AI, tôi vẫn sẽ tìm cách tiếp tục. Có lẽ tôi sẽ quay lại học thuật, nhưng tôi sẽ tìm ra một cách nào đó để tiếp tục.
Gary Tan: AlphaFold là một ví dụ về việc bạn theo đuổi một hướng và đặt cược đúng. Điều gì khiến một lĩnh vực khoa học phù hợp để tạo ra những đột phá kiểu AlphaFold? Có quy luật nào không, ví dụ như một hàm mục tiêu cụ thể?
Demis Hassabis: Tôi thực sự nên dành thời gian để ghi lại điều này. Kinh nghiệm tôi học được từ tất cả các dự án Alpha như AlphaGo và AlphaFold là công nghệ hiện tại của chúng tôi hoạt động tốt nhất trong các trường hợp sau: Thứ nhất, vấn đề có không gian tìm kiếm tổ hợp khổng lồ, càng lớn càng tốt, đến mức không có phương pháp bạo lực hay thuật toán đặc biệt nào có thể giải quyết được. Không gian nước đi của cờ vây và không gian cấu hình protein đều vượt xa số lượng nguyên tử trong vũ trụ. Thứ hai, bạn có thể xác định rõ hàm mục tiêu, chẳng hạn như tối thiểu hóa năng lượng tự do của protein hoặc chiến thắng trong cờ vây, để hệ thống có thể thực hiện tăng dần độ dốc. Thứ ba, có đủ dữ liệu hoặc một trình mô phỏng có thể tạo ra lượng lớn dữ liệu tổng hợp nằm trong phân phối đó.
Nếu ba điều kiện này được đáp ứng, thì với phương pháp ngày nay, chúng ta có thể đi rất xa để tìm ra chiếc kim trong đống rơm mà bạn cần. Việc phát hiện thuốc cũng tuân theo cùng một logic: tồn tại một hợp chất có thể điều trị bệnh này mà không có tác dụng phụ; miễn là định luật vật lý cho phép nó tồn tại, thì vấn đề duy nhất là làm thế nào để tìm ra nó một cách hiệu quả và khả thi. Tôi cho rằng AlphaFold đã chứng minh lần đầu tiên rằng các hệ thống như vậy có khả năng tìm ra chiếc kim này trong không gian tìm kiếm khổng lồ.
Gary Tan: Tôi muốn nâng lên một cấp độ khác. Chúng ta đang nói về cách con người sử dụng các phương pháp này để tạo ra AlphaFold, nhưng còn có một cấp độ siêu việt hơn, đó là con người sử dụng AI để khám phá không gian giả thuyết có thể có. Chúng ta còn cách xa hệ thống AI có thể thực hiện suy luận khoa học thực sự (không chỉ là khớp mẫu trên dữ liệu) bao xa?
Demis Hassabis: Tôi cảm thấy rất gần rồi. Chúng tôi đang phát triển các hệ thống phổ quát như thế này. Chúng tôi có một hệ thống gọi là AI co-scientist và các thuật toán như AlphaEvolve, có thể thực hiện những việc vượt xa Gemini cơ bản. Tất cả các phòng thí nghiệm hàng đầu đều đang khám phá hướng này.
Nhưng cho đến nay, cá nhân tôi chưa thấy một phát hiện khoa học thực sự quan trọng nào được các hệ thống này tạo ra. Tôi cảm thấy nó sắp đến rồi. Nó có thể liên quan đến sự sáng tạo mà chúng ta đã thảo luận trước đây, tức là bước phá vỡ ranh giới đã biết. Đến cấp độ đó, nó không còn là sự khớp mẫu nữa, vì không có mẫu nào để khớp. Cũng không hoàn toàn là ngoại suy, mà là một dạng suy luận tương tự (analogical reasoning), và tôi cho rằng các hệ thống này hiện chưa có khả năng đó, hoặc chúng ta chưa sử dụng chúng theo cách đúng đắn.
Một tiêu chuẩn tôi thường nói trong lĩnh vực khoa học là liệu nó có thể đưa ra một giả thuyết thực sự thú vị hay chỉ đơn thuần là xác minh một giả thuyết. Bởi vì việc xác minh một giả thuyết cũng có thể là một sự kiện lớn, ví dụ như chứng minh giả thuyết Riemann hoặc giải quyết một vấn đề giải thưởng thiên niên kỷ, nhưng có lẽ chúng ta chỉ còn vài năm nữa là đạt được bước đó.
Khó hơn nữa là liệu có thể đưa ra một bộ câu hỏi mới của Giải thưởng Thiên niên kỷ, và được các nhà toán học hàng đầu coi là sâu sắc tương đương, xứng đáng để cả đời nghiên cứu. Tôi cho rằng điều này khó hơn một bậc, và hiện tại chúng ta vẫn chưa biết cách thực hiện. Nhưng tôi không nghĩ đây là điều gì đó kỳ diệu; tôi tin rằng những hệ thống này cuối cùng sẽ làm được, có lẽ chỉ còn thiếu một hoặc hai yếu tố nữa.
Cách chúng ta có thể kiểm tra là tôi đôi khi gọi nó là "kiểm tra Einstein", tức là bạn có thể dùng kiến thức năm 1901 để huấn luyện một hệ thống, sau đó để nó tự mình suy ra những thành tựu mà Einstein đạt được năm 1905, bao gồm thuyết tương đối hẹp và các bài báo khác của ông trong năm đó. Tôi nghĩ chúng ta nên thực sự chạy thử nghiệm này, lặp đi lặp lại, để xem khi nào chúng ta có thể làm được. Một khi làm được, những hệ thống này sẽ gần với việc phát minh ra những điều hoàn toàn mới.
Lời khuyên khởi nghiệp
Gary Tan: Câu hỏi cuối cùng. Trong khán phòng có rất nhiều người có nền tảng kỹ thuật sâu rộng, muốn thực hiện những điều tương tự như quy mô của các bạn—một trong những tổ chức nghiên cứu AI lớn nhất thế giới. Bạn đã đi qua tiền tuyến của nghiên cứu AGI, có điều gì mà bây giờ bạn biết, nhưng mong rằng mình đã biết khi 25 tuổi?
Demis Hassabis: Chúng ta thực tế đã nói đến một phần trong số đó. Bạn sẽ nhận ra rằng việc theo đuổi những vấn đề khó và những vấn đề đơn giản về cơ bản có độ khó tương đương, chỉ là cách khó khác nhau. Những việc khác nhau sẽ có những khó khăn riêng. Nhưng cuộc sống ngắn ngủi, năng lượng có hạn, vậy nên hãy dồn toàn bộ sinh lực của bạn vào những việc nếu bạn không làm thì sẽ không ai làm. Hãy chọn theo tiêu chuẩn này.
Một điểm khác, tôi cho rằng trong vài năm tới, sự kết hợp giữa các lĩnh vực sẽ trở nên phổ biến hơn, và AI sẽ giúp việc kết hợp giữa các lĩnh vực trở nên dễ dàng hơn.
Điểm cuối cùng phụ thuộc vào lộ trình AGI của bạn. Lộ trình của tôi là vào khoảng năm 2030. Nếu bạn bắt đầu một dự án công nghệ sâu hôm nay, thông thường nghĩa là một hành trình kéo dài mười năm. Vậy bạn phải tính đến khả năng AGI sẽ xuất hiện ở giữa chừng. Điều đó có nghĩa là gì? Không nhất thiết là điều xấu, nhưng bạn phải xem xét đến nó. Dự án của bạn có thể tận dụng AGI không? Hệ thống AGI sẽ tương tác với dự án của bạn như thế nào?
Quay lại mối quan hệ giữa AlphaFold và các hệ thống AI tổng quát đã nói trước đó, một tình huống tôi có thể hình dung là các hệ thống tổng quát như Gemini, Claude hoặc tương tự sẽ sử dụng các hệ thống chuyên dụng như AlphaFold như một công cụ để gọi đến. Tôi không nghĩ chúng ta sẽ nhồi nhét mọi thứ vào một “bộ não” duy nhất khổng lồ; nếu nhồi toàn bộ dữ liệu protein vào Gemini thì chẳng có ý nghĩa gì, vì Gemini không cần thực hiện việc gập protein. Trở lại với khái niệm hiệu quả thông tin mà bạn đề cập, những dữ liệu protein chắc chắn sẽ làm giảm khả năng ngôn ngữ của nó. Cách tốt hơn là xây dựng các mô hình sử dụng công cụ tổng quát rất mạnh, có thể gọi đến và thậm chí huấn luyện các công cụ chuyên dụng này, nhưng các công cụ chuyên dụng vẫn là những hệ thống độc lập.
Ý tưởng này đáng để suy ngẫm sâu sắc; nó ảnh hưởng đến việc bạn sẽ xây dựng gì hôm nay, bao gồm cả việc bạn sẽ xây dựng nhà máy nào, hệ thống tài chính nào. Bạn cần nghiêm túc xem xét lịch trình của AGI, tưởng tượng thế giới đó sẽ như thế nào, rồi xây dựng một thứ vẫn có ích khi thế giới đó đến.
