Cựu lãnh đạo AI ở Microsoft: Trung Quốc bám sát Mỹ trong thuật toán nhưng còn kém xa về chip
Dù Mỹ vẫn dẫn đầu về công nghệ chip trí tuệ nhân tạo (AI), Trung Quốc đang bám rất sát về mặt thuật toán, theo nhà khoa học máy tính nổi tiếng Harry Shum Heung-yeung.
Trung Quốc vẫn tụt hậu so với Mỹ trong lĩnh vực chip AI, nhưng đang nhanh chóng bắt kịp về mặt thuật toán giữa bối cảnh cuộc chạy đua công nghệ khốc liệt giữa hai nền kinh tế lớn nhất thế giới, theo nhận định từ Harry Shum Heung-yeung (Thẩm Hướng Dương) - cựu Phó chủ tịch điều hành mảng AI và Nghiên cứu toàn cầu tại Microsoft.

Harry Shum Heung-yeung từng là Phó chủ tịch điều hành mảng AI và Nghiên cứu tại Microsoft - Ảnh: SCMP
Phát biểu tại một hội nghị kinh tế do Trường Kinh doanh thuộc Đại học Hồng Kông tổ chức, Harry Shum Heung-yeung (Chủ tịch Hội đồng trường Đại học Khoa học và Công nghệ Hồng Kông) cho biết cuộc cạnh tranh AI gồm ba yếu tố then chốt là chip, thuật toán và ứng dụng. Trong đó, “Mỹ rõ ràng vẫn vượt xa Trung Quốc về công nghệ chip”.
Ông nhấn mạnh rằng khoảng cách mà Trung Quốc đang đối mặt trong sản xuất chip “không thể được thu hẹp trong 1 hoặc 2 năm”. Theo nhà khoa học máy tính này, sức mạnh điện toán vẫn là thách thức lớn với các công ty ở Trung Quốc đại lục và Hồng Kồng.
Để vượt qua những hạn chế đó, Harry Shum Heung-yeung (từng lãnh đạo mảng AI của Microsoft đến năm 2020) gợi ý rằng Trung Quốc nên tập trung vào các đột phá trong kỹ thuật thuật toán.
“Trung Quốc đang bám rất sát Mỹ về mặt thuật toán, và DeepSeek là một ví dụ điển hình”, ông nói. Theo nhà khoa học máy tính nổi tiếng người Trung Quốc, công ty khởi nghiệp DeepSeek chỉ dùng khoảng 10.000 chip AI nhưng đã đạt được kết quả tương đương các đối thủ hàng đầu tại Mỹ dù phải đối mặt với nhiều thách thức lớn. Con số này so với hàng trăm nghìn chip AI được các công ty Mỹ như OpenAI (nhà phát triển ChatGPT) và Google sử dụng.
Có trụ sở tại thành phố Hàng Châu - trung tâm công nghệ mới của Trung Quốc, DeepSeek đã thu hút sự chú ý toàn cầu đầu năm nay khi ra mắt hai mô hình ngôn ngữ lớn mã nguồn mở V3 và R1 với hiệu năng tương đương các sản phẩm phương Tây nhưng chi phí phát triển thấp hơn nhiều.
Công ty mới hai năm tuổi này đã được ca ngợi ở Trung Quốc như một biểu tượng cho năng lực cạnh tranh của quốc gia trong lĩnh vực AI, bất chấp các nỗ lực leo thang từ Mỹ nhằm cản trở cường quốc châu Á tiến bộ.
Cuối tháng 5, DeepSeek đạt bước tiến lớn với R1-0528, bản cập nhật cho mô hình suy luận R1.
“Mô hình R1 được cập nhật đã vượt trội các mô hình AI trong nước ở nhiều bài kiểm tra chuẩn, gồm toán học, lập trình và tư duy logic tổng quát, và sánh ngang những mô hình hàng đầu toàn cầu như o3 của OpenAI và Gemini 2.5 Pro của Google”, DeepSeek tuyên bố.
Các kết quả đánh giá hiệu năng mà DeepSeek trích dẫn cho thấy R1-0528 đã vươn lên dẫn đầu trên bảng xếp hạng LiveBench dành cho các hệ thống AI mã nguồn mở, đứng trên Qwen3 của Alibaba.
R1-0528 cho thấy DeepSeek đã “vượt xAI, Meta Platforms và Anthropic để trở thành phòng thí nghiệm AI số thứ 2 thế giới, chỉ kém OpenAI”, theo nhận định từ công ty tư vấn Artificial Analysis.

DeepSeek được ca ngợi ở Trung Quốc như một biểu tượng cho năng lực cạnh tranh của quốc gia trong lĩnh vực AI - Ảnh: Getty Images
Một số hãng công nghệ lớn và công ty khởi nghiệp Trung Quốc đang tiến bộ nhanh chóng khi cuộc đua AI giữa Mỹ và Trung ngày càng căng thẳng. Tuần trước, OpenAI cho biết công ty khởi nghiệp Zhipu AI của Trung Quốc đã đạt được “tiến triển đáng chú ý” trong việc cung cấp các giải pháp hạ tầng cho thị trường ngoài phương Tây, tạo ra thách thức với sự thống trị của Mỹ ở lĩnh vực AI đang phát triển nhanh chóng.
“Dòng chip Ascend của Huawei vẫn tụt hậu một thế hệ so với các đối thủ Mỹ”
Các công ty Trung Quốc, gồm cả tập đoàn thiết bị viễn thông Huawei, đang nỗ lực phát triển các giải pháp thay thế chip Nvidia trong nước giữa bối cảnh lệnh cấm xuất khẩu ngày càng gắt gao từ Mỹ, song vẫn gặp nhiều khó khăn để bắt kịp.
Ông Nhậm Chính Phi, nhà sáng lập kiêm Giám đốc điều hành Huawei, gần đây thừa nhận rằng dòng chip Ascend của công ty vẫn “tụt hậu một thế hệ” so với các đối thủ Mỹ. Doanh nhân 80 tuổi cho rằng Mỹ đã “thổi phồng thành tựu của Huawei”. Tuy vậy, ông cho rằng hiệu suất tiên tiến vẫn có thể đạt được thông qua các phương pháp như điện toán cụm.
Harry Shum Heung-yeung vẫn bày tỏ sự lạc quan về tốc độ tiến bộ nhanh chóng ở Trung Quốc trong lĩnh vực chip dù đối mặt với nhiều trở ngại, đồng thời nhấn mạnh thế mạnh của nước này ở mảng ứng dụng AI. “Về ứng dụng, chúng ta thực sự có cơ hội đạt được những đổi mới vượt trội”, ông nhấn mạnh.
Điện toán cụm là phương pháp kết nối nhiều máy tính riêng lẻ (gọi là các nút) lại với nhau để chúng hoạt động như một hệ thống duy nhất, mạnh mẽ hơn. Mục tiêu chính là kết hợp sức mạnh xử lý, bộ nhớ và không gian lưu trữ của các máy tính này để giải quyết các tác vụ phức tạp mà một máy tính đơn lẻ khó có thể xử lý hiệu quả.
Các đặc điểm chính của điện toán cụm
Tính mở rộng: Bạn có thể dễ dàng thêm hoặc bớt các máy tính vào cụm để tăng hoặc giảm sức mạnh tính toán tùy theo nhu cầu.
Tính sẵn sàng cao: Nếu một máy tính trong cụm gặp sự cố, các máy còn lại có thể tiếp tục hoạt động, đảm bảo hệ thống không bị gián đoạn.
Hiệu suất cao: Cụm máy tính có thể phân chia các tác vụ lớn thành nhiều phần nhỏ và xử lý song song, giúp hoàn thành công việc nhanh hơn rất nhiều.
Hiệu quả chi phí: Thường thì việc xây dựng một cụm từ nhiều máy tính tầm trung sẽ kinh tế hơn so với việc mua siêu máy tính đơn lẻ có cùng hiệu năng.
Các ứng dụng phổ biến
Điện toán cụm được sử dụng rộng rãi trong nhiều lĩnh vực, gồm:
Nghiên cứu khoa học: Mô phỏng khí hậu, phân tích dữ liệu thiên văn, nghiên cứu gien.
Phân tích dữ liệu lớn: Xử lý và phân tích lượng lớn dữ liệu để tìm ra xu hướng và thông tin chi tiết.
AI và học máy: Đào tạo các mô hình AI phức tạp đòi hỏi sức mạnh tính toán khổng lồ.
Dịch vụ web và ứng dụng doanh nghiệp: Đảm bảo các trang web và ứng dụng lớn luôn hoạt động ổn định và nhanh chóng.
Hoạt hình và dựng phim: Kết xuất các cảnh quay đồ họa phức tạp trong thời gian ngắn.
Nói tóm lại, điện toán cụm là giải pháp mạnh mẽ và linh hoạt để tăng cường khả năng xử lý của hệ thống máy tính, đặc biệt quan trọng trong thời đại mà dữ liệu và các tác vụ tính toán ngày càng trở nên khổng lồ.
Huawei tuyên bố có phương pháp huấn luyện AI tốt hơn DeepSeek nhờ dùng chip Ascend
Tiến bộ của Huawei trong kiến trúc mô hình AI mang ý nghĩa quan trọng, khi gã khổng lồ công nghệ Trung Quốc nỗ lực giảm sự phụ thuộc vào công nghệ Mỹ.
Các nhà nghiên cứu đang làm việc trên mô hình ngôn ngữ lớn Pangu của Huawei cho biết họ đã cải tiến phương pháp huấn luyện AI ban đầu của DeepSeek bằng cách tận dụng chip AI độc quyền thuộc công ty.
Một bài báo của nhóm nghiên cứu Pangu đã giới thiệu khái niệm Mixture of Grouped Experts (MoGE - tổ hợp các chuyên gia theo nhóm). Đây là phiên bản nâng cấp cho kỹ thuật Mixture of Experts (MoE - tổ hợp các chuyên gia), vốn đóng vai trò then chốt trong các mô hình AI tiết kiệm chi phí của DeepSeek.
MoE là phương pháp học máy phân chia một mô hình AI thành các mạng con riêng biệt, hay còn gọi là các expert (chuyên gia), mỗi expert tập trung vào một tập hợp con dữ liệu đầu vào, để cùng nhau thực hiện nhiệm vụ. Cách tiếp cận này được cho giúp giảm đáng kể chi phí tính toán trong quá trình tiền huấn luyện mô hình AI và tăng tốc độ xử lý ở giai đoạn suy luận.
Theo bài báo của Huawei, dù MoE giúp tiết kiệm tài nguyên điện toán với các mô hình AI có số lượng tham số lớn và khả năng học tăng cường, nhưng kỹ thuật này thường dẫn đến sự không hiệu quả trong việc thực thi. Nguyên nhân là do việc kích hoạt không đồng đều các expert, khiến hiệu suất giảm khi chạy song song trên nhiều thiết bị.
Theo các nhà nghiên cứu của Huawei, MoGE cải tiến bằng cách “gom các expert lại trong quá trình lựa chọn và phân bổ khối lượng công việc tốt hơn”.
Trong huấn luyện AI, expert đề cập đến các mô hình con hoặc thành phần chuyên biệt trong một mô hình lớn hơn, mỗi cái được thiết kế để xử lý một nhiệm vụ cụ thể hoặc loại dữ liệu riêng biệt. Điều này giúp hệ thống tổng thể tận dụng chuyên môn đa dạng để nâng cao hiệu suất.
1. Tham số là các giá trị số mà mô hình AI học được và điều chỉnh trong suốt quá trình huấn luyện trên lượng lớn dữ liệu. Mô hình AI càng có nhiều tham số thì tiềm năng học được các mẫu phức tạp hơn càng lớn, nhưng cũng đòi hỏi nhiều dữ liệu, tài nguyên tính toán để huấn luyện.
2. Học tăng cường là phương pháp học máy, trong đó một tác nhân học cách đưa ra quyết định bằng cách tương tác với môi trường và nhận phản hồi dưới dạng phần thưởng hoặc hình phạt. Mục tiêu của học tăng cường là giúp tác nhân tối đa hóa phần thưởng dài hạn thông qua các hành động mà nó thực hiện trong môi trường.
Bước tiến đó đến vào thời điểm quan trọng, khi các công ty AI Trung Quốc đang tập trung vào việc cải thiện hiệu suất huấn luyện và suy luận của mô hình thông qua cải tiến thuật toán, cũng như sự kết hợp chặt chẽ giữa phần cứng và phần mềm, bất chấp các hạn chế từ Mỹ trong việc xuất khẩu các chip AI tiên tiến như của Nvidia.
Các nhà nghiên cứu của Huawei đã thử nghiệm kiến trúc mới này trên bộ xử lý thần kinh (NPU) Ascend - chip được thiết kế để tăng tốc các tác vụ AI. Họ nhận thấy rằng MoGE “giúp cân bằng khối lượng công việc giữa các expert tốt hơn, thực thi hiệu quả hơn cho cả huấn luyện và suy luận mô hình”.
So với các mô hình AI như DeepSeek-V3, Qwen2.5-72B của Alibaba và Llama-405B của Meta Platforms, Pangu đạt được hiệu suất hàng đầu trong hầu hết bài kiểm tra tiếng Anh tổng quát và tất cả bài kiểm tra tiếng Trung, đồng thời cho thấy hiệu quả cao hơn trong huấn luyện ngữ cảnh dài (xử lý và hiểu được những đoạn văn bản rất dài), theo bài báo.
Các nhà nghiên cứu của Huawei cũng cho biết Pangu vượt trội trong các nhiệm vụ hiểu ngôn ngữ tổng quát, đặc biệt là tác vụ suy luận.
Tiến bộ của Huawei trong kiến trúc mô hình AI có thể mang tính đột phá, khi công ty có trụ sở tại thành phố Thâm Quyến (Trung Quốc) đang tìm cách giảm sự phụ thuộc vào công nghệ Mỹ trong bối cảnh các lệnh trừng phạt vẫn tiếp diễn. Chip AI Ascend của Huawei được xem là lựa chọn thay thế trong nước cho một số sản phẩm Nvidia.
Pangu Ultra, mô hình ngôn ngữ lớn với 135 tỉ tham số được tối ưu hóa cho NPU, là minh chứng rõ ràng cho hiệu quả của những cải tiến kiến trúc và hệ thống từ Huawei.
Theo Huawei, quá trình huấn luyện gồm ba giai đoạn chính: Tiền huấn luyện, mở rộng ngữ cảnh dài và hậu huấn luyện. Điều này liên quan đến tiền huấn luyện với 13.200 tỉ token và mở rộng ngữ cảnh dài bằng 8.192 chip Ascend.
Các nhà nghiên cứu cho biết mô hình và hệ thống này sẽ sớm được cung cấp cho khách hàng thương mại của Huawei.