Nvidia đạt bước tiến đáng kể huấn luyện các hệ thống AI lớn nhất

Theo dữ liệu mới công bố hôm nay (5/6), các chip mới nhất của Nvidia đã đạt được những tiến bộ đáng kể trong việc huấn luyện hệ thống trí tuệ nhân tạo (AI) quy mô lớn.

Nguồn tin từ một công ty chuyên nghiên cứu cho biết, đơn vị này đã đạt được những thành tích đáng kể trong việc huấn luyện các hệ thống AI. Số lượng chip cần thiết để huấn luyện các mô hình ngôn ngữ lớn đã giảm so với trước đây.

Số lượng chip Nvidia cần thiết để huấn luyện các mô hình ngôn ngữ lớn đã giảm đáng kể so với trước đây.

Số lượng chip Nvidia cần thiết để huấn luyện các mô hình ngôn ngữ lớn đã giảm đáng kể so với trước đây.

MLCommons, một tổ chức phi lợi nhuận chuyên công bố kết quả đánh giá hiệu suất của các hệ thống AI, đã công bố dữ liệu mới về các chip từ Nvidia và Advanced Micro Devices, cùng một số hãng khác, trong quá trình huấn luyện AI - giai đoạn mà hệ thống AI được cung cấp một lượng lớn dữ liệu để học hỏi.

Mặc dù thị trường chứng khoán hiện đang chú ý nhiều hơn đến mảng suy luận AI (AI inference) - nơi các hệ thống AI xử lý câu hỏi từ người dùng - số lượng chip cần thiết để huấn luyện các hệ thống này vẫn là một yếu tố cạnh tranh quan trọng. DeepSeek của Trung Quốc tuyên bố đã tạo ra một chatbot cạnh tranh bằng cách sử dụng số lượng chip ít hơn nhiều so với các đối thủ Mỹ.

Kết quả lần này là lần đầu tiên MLCommons công bố dữ liệu về hiệu suất của các chip trong việc huấn luyện các hệ thống AI như Llama 3.1 405B, một mô hình AI mã nguồn mở do Meta Platforms (META.O) phát hành. Mô hình này có số lượng tham số (parameters) đủ lớn để cho thấy hiệu suất của các chip trong một số nhiệm vụ huấn luyện phức tạp nhất trên thế giới, có thể liên quan đến hàng nghìn tỷ tham số.

Nvidia và các đối tác là những đơn vị duy nhất cung cấp dữ liệu về việc huấn luyện mô hình lớn này. Dữ liệu cho thấy chip Blackwell mới của Nvidia, tính trên mỗi chip, nhanh gấp hơn hai lần so với dòng chip Hopper thế hệ trước.

Trong kết quả nhanh nhất của chip mới Nvidia, 2.496 chip Blackwell đã hoàn thành bài kiểm tra huấn luyện trong 27 phút. Trong khi đó, cần hơn ba lần số chip của thế hệ trước để đạt được thời gian nhanh hơn, theo dữ liệu.

Trong một buổi họp báo, Chetan Kapoor, giám đốc sản phẩm của CoreWeave - công ty hợp tác với Nvidia để tạo ra một số kết quả này - cho biết, ngành công nghiệp AI đang có xu hướng kết nối các nhóm chip nhỏ hơn thành các hệ thống phụ để thực hiện các nhiệm vụ huấn luyện AI riêng biệt, thay vì tạo ra các nhóm đồng nhất với 100.000 chip hoặc hơn.

"Việc áp dụng phương pháp như vậy giúp họ tiếp tục tăng tốc hoặc giảm thời gian huấn luyện cho những mô hình có kích thước hàng nghìn tỷ tham số đầy thách thức này," Kapoor nói.

Nvidia, Dell sẽ cung cấp siêu máy tính cho Bộ Năng lượng Hoa Kỳ

Bộ Năng lượng Hoa Kỳ cho biết Nvidia và Dell sẽ là những đơn vị cung cấp công nghệ cho siêu máy tính "Doudna" dự kiến ra mắt vào năm 2026.

Chiếc máy tính này được đặt theo tên nhà khoa học đoạt giải Nobel Jennifer Doudna, người đã có những khám phá quan trọng về chỉnh sửa gen CRISPR, sẽ được đặt tại Phòng thí nghiệm quốc gia Lawrence Berkeley ở Berkeley, California.

Tại một sự kiện tại phòng thí nghiệm có sự tham dự của Bộ trưởng Năng lượng Chris Wright, các quan chức cho biết hệ thống này sẽ sử dụng chip "Vera Rubin" mới nhất của Nvidia được tích hợp vào máy chủ làm mát bằng chất lỏng của Dell và sẽ được 11.000 nhà nghiên cứu sử dụng.

Đức Bình

Nguồn Xây Dựng: https://baoxaydung.vn/nvidia-dat-buoc-tien-dang-ke-huan-luyen-cac-he-thong-ai-lon-nhat-192250605173649738.htm
Zalo