Ngành AI của Trung Quốc tiến bộ với những đột phá về chip và thuật toán trong nước

iconBlockbeats
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
Chương trình tin tức AI + tiền mã hóa cho thấy các xu hướng ngành tại Trung Quốc đang gia tăng tốc độ khi các doanh nghiệp trong nước đẩy mạnh phát triển chip và mô hình tự chủ. DeepSeek sẽ huấn luyện mô hình đa phương tiện V4 bằng phần cứng nội địa, giảm sự phụ thuộc vào công nghệ Mỹ. Huawei và các công ty khác đang mở rộng cơ sở hạ tầng AI với các chip như Ascend 910B. Các mô hình chi phí thấp hơn và sự gia tăng sử dụng toàn cầu các dịch vụ AI Trung Quốc cho thấy một sự chuyển dịch rộng hơn hướng tới tự chủ công nghệ.
Bài viết | Sleepy.txt


Tám năm trước, ZTE ngừng đập.


Vào ngày 16 tháng 4 năm 2018, một lệnh cấm từ Cục Công nghiệp và An ninh thuộc Bộ Thương mại Hoa Kỳ đã khiến ZTE, một nhà cung cấp thiết bị viễn thông lớn thứ tư thế giới với 80.000 nhân viên và doanh thu hàng năm vượt quá 100 tỷ, ngừng hoạt động trong một đêm. Nội dung lệnh cấm rất đơn giản: trong bảy năm tới, cấm mọi công ty Mỹ bán linh kiện, hàng hóa, phần mềm và công nghệ cho ZTE.


Không có chip của Qualcomm, các trạm gốc ngừng sản xuất. Không có giấy phép Android từ Google, điện thoại cũng không còn hệ điều hành nào có thể sử dụng được. 23 ngày sau, ZTE phát hành thông báo cho biết các hoạt động kinh doanh chính của công ty đã không thể tiếp tục.


Tuy nhiên, ZTE cuối cùng đã sống sót, nhưng với giá trị 1,4 tỷ USD.


Phạt 1 tỷ USD, thanh toán một lần; 400 triệu USD tiền ký quỹ, gửi vào tài khoản ký gửi tại ngân hàng Mỹ. Ngoài ra, toàn bộ ban lãnh đạo được thay thế và chấp nhận đội ngũ giám sát tuân thủ của phía Mỹ进驻. Năm 2018, ZTE ghi nhận lỗ ròng 7 tỷ nhân dân tệ, doanh thu giảm 21,4% so với cùng kỳ.


Chủ tịch ZTE lúc đó, Ân Nhất Dân, viết trong thư nội bộ: “Chúng ta đang sống trong một ngành công nghiệp phức tạp, phụ thuộc rất nhiều vào chuỗi cung ứng toàn cầu.” Câu nói này, khi nghe vào thời điểm đó, vừa là sự suy ngẫm, vừa là sự bất lực.


Sau tám năm, vào ngày 26 tháng 2 năm 2026, công ty AI kỳ lân Trung Quốc DeepSeek thông báo rằng mô hình đa phương thức V4 sắp ra mắt của họ sẽ hợp tác sâu rộng với các nhà sản xuất chip trong nước, lần đầu tiên thực hiện toàn bộ quy trình từ tiền huấn luyện đến tinh chỉnh mà không cần sử dụng sản phẩm của NVIDIA.


Chúng tôi không dùng NVIDIA nữa.


Thông tin vừa được đưa ra, phản ứng đầu tiên của thị trường là sự nghi ngờ. Nvidia chiếm hơn 90% thị phần chip đào tạo AI toàn cầu, vậy việc từ bỏ nó có hợp lý về mặt thương mại không?


Nhưng đằng sau lựa chọn của DeepSeek là một vấn đề lớn hơn cả logic kinh doanh: Trung Quốc cần một sự độc lập về năng lực tính toán như thế nào cho AI của mình?


Bị kẹt cổ họng là gì


Nhiều người nghĩ rằng lệnh cấm chip đang kìm hãm phần cứng. Nhưng điều thực sự khiến các công ty AI của Trung Quốc cảm thấy nghẹt thở là một thứ gọi là CUDA.


CUDA, viết tắt của Compute Unified Device Architecture, là một nền tảng tính toán song song và mô hình lập trình do NVIDIA ra mắt năm 2006. Nó cho phép các nhà phát triển trực tiếp sử dụng sức mạnh tính toán của GPU NVIDIA để tăng tốc các tác vụ tính toán phức tạp.


Trước khi thời đại AI đến, đây chỉ là một công cụ thuộc về một nhóm nhỏ các tín đồ công nghệ. Nhưng khi làn sóng học sâu ập đến, CUDA đã trở thành nền tảng của toàn bộ ngành công nghiệp AI.


Việc huấn luyện các mô hình AI quy mô lớn về bản chất là các phép toán ma trận lượng lớn. Và đây chính là công việc mà GPU giỏi nhất.


NVIDIA đã xây dựng một toàn bộ chuỗi công cụ từ phần cứng cấp thấp đến ứng dụng cấp cao cho các nhà phát triển AI toàn cầu thông qua CUDA nhờ vào chiến lược triển khai sớm hơn mười năm. Ngày nay, tất cả các khung AI chính流 trên toàn cầu, từ TensorFlow của Google đến PyTorch của Meta, đều được tích hợp sâu với CUDA ở cấp底层.


Một tiến sĩ chuyên ngành AI, kể từ ngày nhập học, đã học tập, lập trình và thực nghiệm trong môi trường CUDA. Mỗi dòng mã anh ấy viết đều củng cố hàng rào bảo vệ của NVIDIA.



Tính đến năm 2025, hệ sinh thái CUDA đã có hơn 4,5 triệu nhà phát triển, bao phủ hơn 3.000 ứng dụng được tăng tốc bằng GPU, với hơn 40.000 công ty trên toàn cầu đang sử dụng CUDA. Con số này cho thấy hơn 90% nhà phát triển AI trên toàn cầu đều bị ràng buộc trong hệ sinh thái NVIDIA.


Điều đáng sợ về CUDA là nó giống như một bánh đà. Càng nhiều nhà phát triển sử dụng, càng có nhiều công cụ, thư viện và mã nguồn được tạo ra, hệ sinh thái càng phát triển; hệ sinh thái càng phát triển, càng thu hút được nhiều nhà phát triển hơn tham gia. Một khi bánh đà này bắt đầu quay, nó gần như không thể bị lay chuyển.


Kết quả là, NVIDIA bán cho bạn chiếc cuốc đắt nhất và định nghĩa tư thế khai thác duy nhất. Bạn muốn đổi một chiếc cuốc khác? Được. Nhưng bạn phải viết lại toàn bộ kinh nghiệm, công cụ và mã nguồn mà hàng trăm nghìn bộ não thông minh nhất thế giới đã tích lũy trong suốt hơn một thập kỷ qua dưới tư thế này.


Chi phí này, ai sẽ trả?


Vì vậy, vào ngày 7 tháng 10 năm 2022, khi các biện pháp kiểm soát đợt đầu tiên của BIS được áp dụng, hạn chế xuất khẩu GPU A100 và H100 của NVIDIA sang Trung Quốc, các công ty AI Trung Quốc lần đầu tiên cảm nhận rõ ràng cảm giác nghẹt thở kiểu ZTE. Sau đó, NVIDIA đã ra mắt phiên bản “dành riêng cho Trung Quốc” là A800 và H800, giảm băng thông kết nối giữa các chip, nhằm duy trì nguồn cung một cách勉强.


Nhưng chỉ một năm sau, vào ngày 17 tháng 10 năm 2023, đợt kiểm soát thứ hai lại siết chặt hơn, A800 và H800 cũng bị cấm, 13 công ty Trung Quốc bị đưa vào danh sách thực thể. Nvidia buộc phải tiếp tục ra mắt phiên bản H20 bị cắt giảm thêm. Đến tháng 12 năm 2024, đợt kiểm soát cuối cùng trong nhiệm kỳ của chính quyền Biden được áp dụng, ngay cả việc xuất khẩu H20 cũng bị hạn chế nghiêm ngặt.


Ba vòng kiểm soát, ngày càng siết chặt.


Nhưng lần này, cốt truyện diễn biến hoàn toàn khác với Zhongxing hồi đó.


Một cuộc đột phá bất đối xứng


Dưới lệnh cấm, mọi người đều cho rằng giấc mơ mô hình lớn của AI Trung Quốc sẽ chấm dứt tại đây.


Họ đều sai. Trước sự phong tỏa, các công ty Trung Quốc không chọn cách đối đầu trực diện, mà đã bắt đầu một cuộc đột phá. Chiến trường đầu tiên của cuộc đột phá này không phải ở chip, mà là ở thuật toán.


Từ cuối năm 2024 đến năm 2025, các công ty AI của Trung Quốc đã cùng chuyển sang một hướng công nghệ: mô hình chuyên gia hỗn hợp.


Nói một cách đơn giản, đó là chia một mô hình lớn thành nhiều chuyên gia nhỏ, và khi xử lý nhiệm vụ, chỉ kích hoạt một vài chuyên gia liên quan nhất, thay vì làm toàn bộ mô hình hoạt động.


DeepSeek V3 là đại diện tiêu biểu cho tư tưởng này. Nó sở hữu 671 tỷ tham số, nhưng mỗi lần suy luận chỉ kích hoạt 37 tỷ trong số đó, chiếm 5,5% tổng số. Về chi phí đào tạo, nó sử dụng 2048 GPU NVIDIA H800, đào tạo trong 58 ngày với tổng chi phí 5,576 triệu USD. Để so sánh, ước tính chi phí đào tạo GPT-4 từ bên ngoài vào khoảng 78 triệu USD — một sự khác biệt về quy mô.


Sự tối ưu hóa cực hạn về thuật toán đã trực tiếp phản ánh vào giá cả. Giá API của DeepSeek, đầu vào chỉ từ 0,028 đến 0,28 USD mỗi triệu token, đầu ra là 0,42 USD. Trong khi đó, giá đầu vào của GPT-4o là 5 USD, đầu ra là 15 USD. Claude Opus đắt hơn nữa, đầu vào 15 USD, đầu ra 75 USD. Tính ra, DeepSeek rẻ hơn Claude từ 25 đến 75 lần.


Sự chênh lệch giá này đã gây tiếng vang lớn trên thị trường nhà phát triển toàn cầu. Vào tháng 2 năm 2026, trên OpenRouter — nền tảng tổng hợp API mô hình AI lớn nhất thế giới — lượng gọi mô hình AI Trung Quốc trong ba tuần tăng 127%, lần đầu tiên vượt Mỹ. Một năm trước, tỷ lệ mô hình Trung Quốc trên OpenRouter dưới 2%. Một năm sau, tăng 421%, xấp xỉ sáu phần mười.



Đằng sau bộ dữ liệu này là một sự thay đổi cấu trúc dễ bị bỏ qua. Từ nửa sau năm 2025, các cảnh ứng dụng AI phổ biến đã chuyển từ trò chuyện sang Agent. Trong cảnh Agent, lượng Token tiêu thụ cho một nhiệm vụ gấp 10 đến 100 lần so với trò chuyện đơn giản. Khi lượng Token tiêu thụ tăng theo cấp số nhân, giá cả trở thành yếu tố quyết định. Tính hiệu quả chi phí cực cao của các mô hình Trung Quốc恰好 phù hợp với cửa sổ này.


Nhưng vấn đề là việc giảm chi phí suy luận không giải quyết được vấn đề cốt lõi của việc huấn luyện. Một mô hình lớn nếu không thể liên tục huấn luyện và lặp lại trên dữ liệu mới nhất, khả năng của nó sẽ nhanh chóng suy giảm. Và việc huấn luyện, vẫn là hố đen năng lực không thể tránh khỏi.


Vậy thì, chiếc «cuốc» được huấn luyện đến từ đâu?


Chuyển từ bạn bè thân thiết thành bạn chính thức


Jiangsu Xinghua, một thành phố nhỏ ở miền Nam Giang Tô, nổi tiếng với thép không gỉ và thực phẩm lành mạnh, trước đây không có bất kỳ mối liên hệ nào với AI. Nhưng năm 2025, một dây chuyền sản xuất máy chủ tính toán trong nước dài 148 mét đã được xây dựng và đi vào hoạt động tại đây, từ khi ký kết đến khi đi vào vận hành chỉ mất 180 ngày.


Trung tâm của dây chuyền sản xuất này là hai con chip hoàn toàn trong nước: bộ xử lý Long芯 3C6000 và card tăng tốc AI Thái Sơ Nguyên Kỳ T100. Bộ xử lý Long芯 3C6000 có bộ lệnh và kiến trúc vi mạch đều được tự nghiên cứu và phát triển. Thái Sơ Nguyên Kỳ xuất phát từ Trung tâm Siêu tính toán Vô Tích của nhà nước và nhóm từ Đại học Thanh Hoa, sử dụng kiến trúc lõi đồng xử lý dị cấu.


Khi dây chuyền hoạt động hết công suất, mỗi 5 phút sẽ cho ra một máy chủ. Tổng đầu tư của dây chuyền này là 1,1 tỷ nhân dân tệ, dự kiến sản xuất 100.000 máy mỗi năm.


Quan trọng hơn, dựa trên cụm máy tính vạn card được tạo thành từ các chip trong nước, đã bắt đầu tiếp nhận các nhiệm vụ huấn luyện mô hình lớn thực sự.


Tháng 1 năm 2026, Zhipu AI hợp tác với Huawei ra mắt GLM-Image, mô hình tạo hình ảnh SOTA đầu tiên được đào tạo hoàn toàn trên chip trong nước. Tháng 2, mô hình lớn “Thiên Tinh” với quy mô hàng tỷ của China Telecom đã hoàn thành quá trình đào tạo toàn bộ trên cụm tính toán vạn card trong nước tại Lĩnh Nam, Thượng Hải.



Ý nghĩa của những ví dụ này là chúng chứng minh một điều: chip trong nước đã vượt từ giai đoạn “có thể dùng để suy luận” sang giai đoạn “có thể dùng để huấn luyện”. Đây là một bước biến đổi về chất. Suy luận chỉ cần chạy các mô hình đã được huấn luyện sẵn, yêu cầu đối với chip tương đối thấp; trong khi huấn luyện cần xử lý lượng dữ liệu khổng lồ, thực hiện các phép tính gradient phức tạp và cập nhật tham số, yêu cầu về sức tính toán, băng thông liên kết và hệ sinh thái phần mềm của chip cao hơn một cấp độ.


Lực lượng cốt lõi thực hiện những nhiệm vụ này là dòng chip Ascend của Huawei. Tính đến cuối năm 2025, số lượng nhà phát triển trong hệ sinh thái Ascend đã vượt quá 4 triệu, đối tác vượt quá 3.000 công ty, 43 mô hình lớn phổ biến trong ngành đã được huấn luyện trước dựa trên Ascend, và hơn 200 mô hình mã nguồn mở đã được điều chỉnh thích nghi. Vào ngày 2 tháng 3 năm 2026 tại sự kiện MWC, Huawei đã ra mắt lần đầu tiên trên thị trường quốc tế nền tảng tính toán thế hệ mới SuperPoD.


Độ mạnh tính toán FP16 của Ascend 910B đã sánh ngang với NVIDIA A100. Mặc dù vẫn còn khoảng cách, nhưng đã từ mức không thể sử dụng trở thành có thể sử dụng, và đang tiến dần đến mức dễ sử dụng. Việc xây dựng hệ sinh thái không thể chờ đến khi chip hoàn hảo mới bắt đầu, mà phải mở rộng quy mô lớn ngay từ giai đoạn đủ dùng, lấy nhu cầu thực tế của các ứng dụng để thúc đẩy sự lặp lại của chip và phần mềm. Mục tiêu của ByteDance, Tencent và Baidu trong việc triển khai máy chủ tính toán trong nước vào năm 2026 đều dự kiến tăng gấp đôi so với năm trước. Theo số liệu của Bộ Công nghiệp và Công nghệ Thông tin, quy mô tính toán trí tuệ nhân tạo của Trung Quốc đã đạt 1590 EFLOPS. Năm 2026 đang trở thành năm đầu tiên của việc triển khai quy mô tính toán trong nước.


Tình trạng thiếu điện ở Mỹ và việc các doanh nghiệp Trung Quốc mở rộng ra nước ngoài


Đầu năm 2026, bang Virginia — nơi chịu tải lượng lớn lưu lượng dữ liệu trung tâm dữ liệu toàn cầu — đã tạm dừng phê duyệt các dự án xây dựng trung tâm dữ liệu mới. Bang Georgia theo sau, kéo dài thời gian tạm dừng phê duyệt đến năm 2027. Các bang Illinois và Michigan cũng lần lượt ban hành các biện pháp hạn chế.


Theo dữ liệu của Cơ quan Năng lượng Quốc tế, năm 2024, lượng điện tiêu thụ của các trung tâm dữ liệu tại Hoa Kỳ đã đạt 183 terawatt-giờ, chiếm khoảng 4% tổng lượng điện tiêu thụ cả nước. Đến năm 2030, con số này dự kiến tăng gấp đôi lên 426 TWh, có thể vượt quá 12%. CEO của công ty Arm còn dự đoán rằng đến năm 2030, các trung tâm dữ liệu AI sẽ tiêu thụ 20% đến 25% điện năng của Hoa Kỳ.


Hệ thống điện của Mỹ đã quá tải. Hệ thống điện PJM bao phủ 13 tiểu bang phía đông Hoa Kỳ đang đối mặt với tình trạng thiếu hụt công suất 6GW. Đến năm 2033, toàn bộ Hoa Kỳ sẽ đối mặt với khoảng trống công suất điện 175GW, tương đương với nhu cầu điện của 130 triệu hộ gia đình. Chi phí điện bán buôn tại các khu vực tập trung trung tâm dữ liệu đã tăng 267% so với năm năm trước.


Sức mạnh tính toán đến giới hạn cuối cùng là năng lượng. Và ở khía cạnh năng lượng này, khoảng cách giữa Trung Quốc và Mỹ còn lớn hơn cả chip, chỉ là hướng ngược lại.


Sản lượng điện hàng năm của Trung Quốc là 10,4 nghìn tỷ kWh, của Mỹ là 4,2 nghìn tỷ kWh, Trung Quốc gấp 2,5 lần Mỹ. Quan trọng hơn, điện sử dụng cho sinh hoạt cư dân ở Trung Quốc chỉ chiếm 15% tổng lượng điện tiêu thụ, trong khi tỷ lệ này ở Mỹ là 36%. Điều này có nghĩa là Trung Quốc có dư địa điện công nghiệp lớn hơn nhiều so với Mỹ để đầu tư vào xây dựng năng lực tính toán.



Về giá điện, khu vực tập trung các công ty AI của Mỹ có giá điện từ 0,12 đến 0,15 USD mỗi kWh, trong khi giá điện công nghiệp ở phía Tây Trung Quốc khoảng 0,03 USD, chỉ bằng một phần tư đến một phần năm giá điện ở Mỹ.


Sự gia tăng điện lực của Trung Quốc đã đạt gấp 7 lần của Hoa Kỳ.


Trong khi Mỹ đang loay hoay với điện, AI của Trung Quốc đang âm thầm vươn ra nước ngoài. Nhưng lần này, không phải sản phẩm hay nhà máy mà là Token.


Token, đơn vị nhỏ nhất mà mô hình AI xử lý thông tin, đang trở thành một loại hàng hóa số mới. Nó được sản xuất tại các nhà máy tính toán của Trung Quốc và được truyền tải toàn cầu thông qua cáp quang ngầm dưới biển.


Dữ liệu phân bố người dùng của DeepSeek rất có ý nghĩa: Trung Quốc đại lục chiếm 30,7%, Ấn Độ 13,6%, Indonesia 6,9%, Hoa Kỳ 4,3%, Pháp 3,2%. Nó hỗ trợ 37 ngôn ngữ và được ưa chuộng rộng rãi tại các thị trường mới nổi như Brazil. Trên toàn cầu, 26.000 doanh nghiệp đã mở tài khoản và 3.200 tổ chức đã triển khai phiên bản doanh nghiệp.


Năm 2025, 58% các công ty khởi nghiệp AI mới đã tích hợp DeepSeek vào stack công nghệ của họ. Tại Trung Quốc, DeepSeek chiếm 89% thị phần. Tại các quốc gia khác bị trừng phạt, thị phần dao động từ 40% đến 60%.


Cảnh tượng này giống hệt cuộc chiến về quyền tự chủ ngành công nghiệp cách đây bốn mươi năm.


Năm 1986 tại Tokyo, dưới áp lực mạnh mẽ từ Hoa Kỳ, chính phủ Nhật Bản đã ký kết Hiệp định bán dẫn Mỹ-Nhật. Các điều khoản cốt lõi của hiệp định gồm ba điểm: yêu cầu Nhật Bản mở cửa thị trường bán dẫn, thị phần chip Mỹ tại Nhật phải đạt trên 20%; cấm bán bán dẫn Nhật với giá thấp hơn chi phí xuất khẩu; áp dụng mức thuế trừng phạt 100% đối với 300 triệu USD chip xuất khẩu từ Nhật. Đồng thời, Hoa Kỳ đã bác bỏ thương vụ Fujitsu mua lại Fairchild Semiconductor.


Năm đó, ngành công nghiệp bán dẫn Nhật Bản đang ở đỉnh cao. Năm 1988, Nhật Bản kiểm soát 51% thị phần bán dẫn toàn cầu, trong khi Mỹ chỉ có 36,8%. Trong top 10 công ty bán dẫn lớn nhất thế giới, Nhật Bản chiếm sáu vị trí: NEC xếp thứ hai, Toshiba thứ ba, Hitachi thứ năm, Fujitsu thứ bảy, Mitsubishi thứ tám và Panasonic thứ chín. Năm 1985, Intel thua lỗ 173 triệu USD trong cuộc cạnh tranh bán dẫn giữa Mỹ và Nhật Bản, gần như phá sản.


Nhưng sau khi ký kết thỏa thuận, mọi thứ đã thay đổi.


Mỹ đã tiến hành các biện pháp như điều tra 301 để áp đặt sự kiềm chế toàn diện đối với các doanh nghiệp bán dẫn Nhật Bản. Đồng thời, Mỹ hỗ trợ Samsung và Hynix của Hàn Quốc, nhằm đẩy mạnh thị trường Nhật Bản với giá thấp hơn. Tỷ lệ thị phần DRAM của Nhật Bản giảm từ 80% xuống còn 10%. Đến năm 2017, thị phần IC của Nhật Bản chỉ còn 7%. Những ông lớn từng một thời hùng mạnh đã lần lượt bị chia tách, bị mua lại, hoặc rút lui một cách lặng lẽ trong tình trạng thua lỗ triền miên.



Bi kịch của ngành bán dẫn Nhật Bản nằm ở chỗ, nó hài lòng với vai trò là nhà sản xuất xuất sắc nhất trong một hệ thống phân công toàn cầu do một lực lượng bên ngoài chi phối, nhưng chưa bao giờ nghĩ đến việc xây dựng một hệ sinh thái độc lập của riêng mình. Khi thủy triều rút xuống, nó mới nhận ra rằng, ngoài sản xuất ra, nó chẳng còn gì cả.


Ngành công nghiệp AI của Trung Quốc hôm nay đang đứng tại một ngã rẽ tương tự nhưng hoàn toàn khác biệt.


Tương tự, chúng tôi cũng đang đối mặt với áp lực lớn từ bên ngoài. Ba vòng kiểm soát chip, từng bước gia tăng, rào cản sinh thái CUDA vẫn còn cao ngất.


Khác với lần trước, lần này chúng tôi chọn con đường khó khăn hơn. Từ việc tối ưu cực hạn ở cấp độ thuật toán, đến bước nhảy vọt của chip trong nước từ suy luận sang huấn luyện, đến tích lũy 4 triệu nhà phát triển trong hệ sinh thái Ascend, đến sự thâm nhập của Token ra thị trường toàn cầu. Mỗi bước trên con đường này đều đang xây dựng một hệ sinh thái ngành độc lập mà Nhật Bản chưa từng có.


Kết thúc


Ngày 27 tháng 2 năm 2026, ba bản tin kết quả kinh doanh từ các công ty bán dẫn AI nội địa được công bố cùng một ngày.


Cambricon, doanh thu tăng 453%, lần đầu tiên đạt lợi nhuận cả năm. Moore Threads, doanh thu tăng 243%, nhưng lỗ ròng 1 tỷ. Muxi, doanh thu tăng 121%, lỗ ròng gần 800 triệu.


Nửa là lửa, nửa là nước biển.


Lửa là sự khát khao cực độ của thị trường. Khoảng trống 95% mà Huang Renxun để lại đang được từng inch một lấp đầy bởi các con số doanh thu của những công ty bản địa. Dù hiệu năng ra sao, dù hệ sinh thái thế nào, thị trường đều cần một lựa chọn thứ hai ngoài NVIDIA. Đây là cơ hội cấu trúc hiếm có, do địa chính trị tạo ra.


Biển nước là chi phí lớn trong xây dựng sinh thái. Mỗi đồng lỗ đều là tiền thật mà chúng ta phải trả để theo kịp sinh thái CUDA. Đó là chi phí đầu tư vào nghiên cứu và phát triển, trợ cấp phần mềm, và chi phí nhân lực của các kỹ sư được cử đến hiện trường khách hàng để từng bước giải quyết các vấn đề biên dịch. Những khoản lỗ này không phải do quản lý kém, mà là loại thuế chiến tranh bắt buộc phải trả để xây dựng một sinh thái độc lập.


Ba báo cáo tài chính này ghi lại chân thực hơn bất kỳ báo cáo ngành nào về thực trạng thực sự của cuộc chiến tính toán. Đây không phải là một chiến thắng rực rỡ, mà là một cuộc chiến tuyến ác liệt, tiến công trong khi đang chảy máu.


Nhưng hình thái của chiến tranh thực sự đã thay đổi. Tám năm trước, chúng ta đang thảo luận về vấn đề “có thể sống sót hay không”. Hôm nay, chúng ta đang thảo luận về vấn đề “phải trả giá bao nhiêu để sống sót”.


Chính chi phí mới là sự tiến bộ.


Nhấp để tìm hiểu các vị trí đang tuyển của律动BlockBeats


Chào mừng bạn tham gia cộng đồng chính thức của律动 BlockBeats:

Nhóm đăng ký Telegram: https://t.me/theblockbeats

Nhóm giao lưu Telegram: https://t.me/BlockBeats_App

Tài khoản chính thức trên Twitter: https://twitter.com/BlockBeatsAsia

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.