Đây mới là điều khiến Nvidia lo ngại về DeepSeek
Mô hình AI của DeepSeek được cho là đang vận hành trên các chip AI của Huawei, cụ thể là Ascend 910C. Đây được coi là dòng chip đối trọng với GPU mạnh nhất hiện có của Nvidia.
Cụ thể, mô hình ngôn ngữ lớn DeepSeek R1 của công ty này được đào tạo bằng GPU Nvidia H100, nhưng sử dụng chip Ascend 910C để thực hiện suy luận (inference). Đây là quá trình tạo phản hồi dựa trên mô hình đã được huấn luyện.
Thông tin về việc DeepSeek sử dụng chip của Huawei được tài khoản @Dorialexander tìm ra thông qua một bài viết ở Trung Quốc. Theo đó, chip Ascend 910C không tham gia vào quá trình đào tạo mô hình, mà chỉ phục vụ cho giai đoạn suy luận. Giai đoạn này vốn không đòi hỏi sức mạnh tính toán quá cao như giai đoạn huấn luyện. Việc tách biệt giai đoạn huấn luyện và suy luận giúp DeepSeek tối ưu hóa hiệu suất tính toán, giảm nhu cầu sử dụng GPU mạnh như Nvidia H100 trong giai đoạn vận hành.
Tuy nhiên, một hạn chế là hiệu suất của Ascend 910C vẫn chưa đủ mạnh để đảm nhiệm việc đào tạo các mô hình AI lớn. Để khắc phục vấn đề này, Huawei đang phát triển Ascend 920C. Con chip này dự kiến cạnh tranh trực tiếp với Nvidia Blackwell B200 - át chủ bài của Nvidia trong lĩnh vực tăng tốc AI. Điều này có nghĩa là trong tương lai gần, Trung Quốc có thể có một phần cứng mạnh mẽ hơn để giảm phụ thuộc vào Nvidia, theo GSM Arena.
Với dòng chip Ascend 910C, Huawei còn có tiềm năng trở thành đối thủ cạnh tranh trực tiếp với Nvidia. Chip này được xem là câu trả lời của Trung Quốc đối với Nvidia Hopper H100 - GPU đang chiếm lĩnh thị trường AI hiện nay. Mặc dù thông số kỹ thuật chi tiết của Ascend 910C vẫn chưa được công bố rộng rãi, Huawei đã có kế hoạch bắt đầu sản xuất hàng loạt con chip này vào quý 1/2025.
Các công ty công nghệ lớn của Trung Quốc như ByteDance và Tencent đã bày tỏ sự quan tâm đến Ascend 910C. Điều cho thấy dòng chip có tiềm năng rất lớn nếu muốn thay thế Nvidia tại thị trường nội địa.
Với DeepSeek, công ty tuyên bố mô hình AI của mình vượt xa các đối thủ Mỹ về hiệu suất chi phí, đồng thời nhanh chóng đạt vị trí số một trên App Store tại 51 quốc gia nhờ chatbot mã nguồn mở.
Song, theo Wccftech, một trong những vấn đề gây hiểu lầm trên truyền thông liên quan đến DeepSeek là con số "5 triệu USD để đánh bại OpenAI". Đây không phải là chi phí đào tạo toàn bộ mô hình, mà chỉ là chi phí vận hành mô hình cuối cùng.
Ngoài ra, CEO Scale AI, Alexander Wang trong một bài phỏng vấn suy đoán DeepSeek có quyền sử dụng hơn 50.000 GPU Nvidia H100, tức là công ty này vẫn cần nguồn tài nguyên tính toán tương đương với các mô hình AI lớn khác trên thị trường. Tuy nhiên, đây không phải là con số hợp lý nếu xét đến nguồn lực của nhiều công ty AI khác trên thị trường như xAI của Elon Musk.