Nvidia lên kế hoạch bán công nghệ tăng tốc giao tiếp giữa các chip AI
Hôm nay (19/5), người khổng lồ Nvidia công bố kế hoạch bán công nghệ cho các công ty khác, giúp liên kết các chip để tăng tốc giao tiếp chip-to-chip, đáp ứng nhu cầu xây dựng và triển khai các công cụ trí tuệ nhân tạo (AI).
Công nghệ tăng tốc giao tiếp giữa các chip AI
Nvidia đã ra mắt phiên bản mới của công nghệ NVLink, mang tên NVLink Fusion, vào hôm nay. Công nghệ này sẽ được bán cho các nhà thiết kế chip khác, hỗ trợ xây dựng các hệ thống AI tùy chỉnh mạnh mẽ với nhiều chip liên kết với nhau. Marvell Technology và MediaTek dự kiến sẽ áp dụng công nghệ NVLink Fusion cho các nỗ lực phát triển chip tùy chỉnh của họ.

Nvidia lên kế hoạch bán công nghệ tăng tốc giao tiếp giữa các chip AI.
NVLink được Nvidia phát triển từ nhiều năm trước, dùng để trao đổi lượng dữ liệu khổng lồ giữa các chip, chẳng hạn như trong hệ thống GB200 của hãng, kết hợp hai bộ xử lý đồ họa Blackwell với một bộ xử lý Grace.
Giám đốc điều hành Nvidia, Jensen Huang, công bố thông tin này tại Trung tâm Âm nhạc Taipei, nơi diễn ra triển lãm Computex AI từ ngày 20-23/5. Ngoài việc giới thiệu công nghệ mới, Huang còn tiết lộ kế hoạch xây dựng trụ sở Nvidia tại Đài Loan (Trung Quốc), đặt ở vùng ngoại ô phía bắc Taipei.
Trong bài phát biểu, ông Huang chia sẻ về hành trình của Nvidia trong việc phát triển chip và hệ thống AI, cùng với phần mềm hỗ trợ. Ông cho biết trước đây, 90% thời lượng các bài thuyết trình của mình tập trung vào chip đồ họa, nhưng điều đó đã thay đổi. Từ một công ty chuyên sản xuất chip đồ họa cho trò chơi điện tử, Nvidia đã vươn lên trở thành nhà sản xuất chip hàng đầu, thúc đẩy cơn sốt AI trong ngành công nghệ kể từ khi ChatGPT ra mắt vào năm 2022.
Theo các nguồn tin, Nvidia cũng đang thiết kế các CPU chạy hệ điều hành Windows của Microsoft, sử dụng công nghệ từ Arm Holdings. Tại Computex năm ngoái, ông Huang đã tạo nên "cơn sốt Jensen" tại Đài Loan, khi công chúng và truyền thông hào hứng theo dõi vị CEO này, người bị đám đông vây quanh tại triển lãm.
Trong hội nghị nhà phát triển thường niên hồi tháng 3, ông Huang đã phác thảo cách Nvidia định vị để đáp ứng sự thay đổi trong nhu cầu tính toán, từ việc xây dựng các mô hình AI lớn sang chạy các ứng dụng dựa trên chúng. Ông công bố một số thế hệ chip AI mới, bao gồm Blackwell Ultra, dự kiến ra mắt cuối năm nay. Các chip Rubin của hãng sẽ được tiếp nối bởi bộ xử lý Feynman, dự kiến có mặt vào năm 2028.
Nvidia cũng ra mắt phiên bản chip AI cho máy tính để bàn, mang tên DGX Spark, hướng tới các nhà nghiên cứu AI. Vào thứ Hai, Huang cho biết máy tính này đã đi vào sản xuất hàng loạt và sẽ sẵn sàng trong "vài tuần tới".
Computex, dự kiến có 1.400 nhà triển lãm, sẽ là sự kiện lớn đầu tiên quy tụ các giám đốc điều hành ngành máy tính và chip tại châu Á, kể từ khi Tổng thống Mỹ Donald Trump đe dọa áp thuế mạnh để thúc đẩy các công ty tăng cường sản xuất tại Mỹ.
Ra mắt phần mềm tạo thị trường cho sức mạnh tính toán AI
Cũng trong hôm nay, Nvidia công bố một nền tảng phần mềm mới, nhằm tạo ra một thị trường cho các chip trí tuệ nhân tạo (AI) hoạt động trên đám mây.

Nvidia ra mắt phần mềm tạo thị trường cho sức mạnh tính toán AI.
Các bộ xử lý đồ họa (GPU) của Nvidia hiện đang thống trị thị trường huấn luyện các mô hình AI. Một loạt các công ty đám mây mới, được gọi là "neoclouds" như CoreWeave và Nebius Group, đã xuất hiện để chuyên cung cấp dịch vụ thuê chip Nvidia cho các nhà phát triển phần mềm.
Công ty có trụ sở tại Santa Clara, California, đã giới thiệu công cụ mới mang tên Lepton, cho phép các công ty điện toán đám mây bán dung lượng GPU tại một điểm tập trung duy nhất. Ngoài CoreWeave và Nebius, các công ty khác tham gia nền tảng Lepton bao gồm Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nscale, SoftBank Corp và Yotta Data Services.
Phó chủ tịch mảng đám mây của Nvidia, Alexis Bjorlin, cho biết dù nhu cầu về chip tăng vọt tại các công ty khởi nghiệp và doanh nghiệp lớn, quá trình tìm kiếm chip sẵn có vẫn rất "thủ công".
"Gần như mọi người phải liên lạc với nhau để tìm hiểu xem dung lượng tính toán nào còn trống. Chúng tôi chỉ đang cố gắng làm cho quá trình này trở nên liền mạch, vì điều đó giúp hệ sinh thái phát triển, đồng thời cho phép tất cả các nhà cung cấp đám mây - từ các đám mây toàn cầu đến các nhà cung cấp mới - tiếp cận toàn bộ hệ sinh thái nhà phát triển của Nvidia", ông Bjorlin chia sẻ.
Hiện tại, danh sách đối tác của Lepton chưa có các nhà cung cấp đám mây lớn như Microsoft, Amazon Web Services hay Google của Alphabet. Tuy nhiên, Bjorlin cho biết hệ thống được thiết kế để các công ty này có thể bán dung lượng của họ trên thị trường nếu muốn.
Lepton sẽ sớm cho phép các nhà phát triển tìm kiếm chip Nvidia tại các quốc gia cụ thể để đáp ứng yêu cầu lưu trữ dữ liệu. Nền tảng này cũng giúp các công ty đã sở hữu một số chip Nvidia dễ dàng tìm kiếm thêm chip để thuê.
Nvidia chưa tiết lộ mô hình kinh doanh của nền tảng phần mềm mới, cũng như không đề cập liệu họ sẽ thu phí hoa hồng từ các nhà phát triển hay các nhà cung cấp đám mây.
Tuy nhiên, ông Bjorlin nhấn mạnh các nhà phát triển "vẫn sẽ duy trì mối quan hệ trực tiếp với các nhà cung cấp tính toán, vì họ đã ký hợp đồng trực tiếp với những nhà cung cấp này".
Qualcomm sản xuất bộ xử lý trung tâm dữ liệu kết nối với chip Nvidia
Qualcomm hôm nay (19/5) vừa công bố kế hoạch phát triển các bộ xử lý trung tâm dữ liệu (CPU) tùy chỉnh, sử dụng công nghệ từ Nvidia để kết nối với các chip trí tuệ nhân tạo (AI) của Nvidia.
Các chip của Nvidia hiện đang thống trị thị trường AI, nhưng luôn được ghép nối với các CPU - phân khúc vốn do Intel và Advanced Micro Devices dẫn đầu. Nvidia cũng đã tham gia vào thị trường CPU, thiết kế một chip sử dụng công nghệ từ Arm Holdings để phát triển CPU "Grace" của riêng mình.
"Với khả năng kết nối các bộ xử lý tùy chỉnh của chúng tôi với kiến trúc quy mô rack của Nvidia, chúng tôi đang thúc đẩy một tầm nhìn chung về điện toán hiệu suất cao và tiết kiệm năng lượng cho trung tâm dữ liệu", đại diện Qualcomm, Cristiano Amon cho biết.