DeepSeek gây tò mò
Công ty AI Trung Quốc đã phát triển phương pháp suy luận AI mới trong bối cảnh kỳ vọng về mô hình thế hệ tiếp theo gia tăng.

DeepSeek đang tập trung vào nghiên cứu và phát triển các mô hình mới, thay vì xuất hiện nhiều trên truyền thông. Ảnh: SCMP.
Hợp tác với các nhà nghiên cứu từ Đại học Thanh Hoa, DeepSeek đã giới thiệu một phương pháp mới nhằm cải thiện khả năng suy luận của các mô hình ngôn ngữ lớn (LLM). Phương pháp được công bố trong một bài nghiên cứu tối 4/4, giúp các LLM đưa ra kết quả tốt và nhanh hơn đối với các truy vấn thông thường.
Kỹ thuật này là sự kết hợp giữa hai phương pháp thành công trước đây của DeepSeek. Một là generative reward modelling (GRM), cho phép mô hình AI tự đánh giá và tinh chỉnh câu trả lời dựa trên các kết quả trước đó và hai là Self-principled critique tuning.
Cả hai phương pháp đều dựa trên yếu tố “tự học” của AI, giảm sự phụ thuộc vào phản hồi hoặc hướng dẫn trực tiếp từ con người, nhưng với mong muốn đưa ra kết quả sát với kỳ vọng của con người hơn.
Theo các nhà nghiên cứu, mặc dù là phương pháp mới, DeepSeek-GRM vẫn đạt được hiệu quả vượt trội và cạnh tranh với những mô hình AI nổi tiếng và hiệu quả nhất hiện nay. DeepSeek dự kiến sẽ mã nguồn mở cho các mô hình GRM, tuy nhiên vẫn chưa đưa ra mốc thời gian cụ thể.
Sau khi tạo tiếng vang toàn cầu với mô hình nền tảng V3 và mô hình suy luận R1, DeepSeek đã công bố bài viết học thuật này trên kho lưu trữ khoa học trực tuyến arXiv, khiến nhiều người tò mò về bước đi tiếp theo của hãng.
Reuters dự đoán rằng DeepSeek-R2, phiên bản kế nhiệm của R1, có thể sẽ ra mắt trong tháng 4, trong bối cảnh các mô hình trước vẫn chưa hạ nhiệt. Trước đó, DeepSeek-R1 đã gây chấn động giới công nghệ toàn cầu nhờ hiệu suất vượt trội so với chi phí, đủ sức cạnh tranh với các mô hình hàng đầu hiện nay.
DeepSeek vẫn giữ im lặng trước các lời đồn đoán. Tuy nhiên, theo thông tin nội địa, một tài khoản chăm sóc khách hàng của DeepSeek đã phủ nhận thông tin trên trong một nhóm trò chuyện với các khách hàng doanh nghiệp.
Được thành lập tại Hàng Châu năm 2023 bởi doanh nhân Liang Wenfeng, DeepSeek đã nhanh chóng thu hút sự chú ý toàn cầu trong vài tháng qua. Nhưng thay vì tận dụng sự nổi tiếng công khai, công ty tập trung nguồn lực cho nghiên cứu và phát triển.
Trước đó, DeepSeek đã nâng cấp mô hình V3, ra mắt phiên bản DeepSeek-V3-0324. Theo công bố, bản cập nhật này có khả năng suy luận nâng cao, tối ưu hóa cho phát triển giao diện người dùng web (front-end), và cải thiện trình độ viết tiếng Trung.
Vào tháng 2, start-up này cũng đã mã nguồn mở 5 kho mã (code repositories), khẳng định cam kết “tiến bộ với sự minh bạch đầy đủ”. Cũng trong tháng này, hãng đã công bố một nghiên cứu kỹ thuật “native sparse attention”, giúp cải thiện hiệu suất của các LLM trong việc xử lý lượng dữ liệu khổng lồ.
DeepSeek được xem là biểu tượng cho sức bật của ngành AI Trung Quốc, giữa lúc Mỹ đang nỗ lực kiềm chế sự phát triển công nghệ của quốc gia này.