OpenAI thuê chip AI Google để vận hành ChatGPT cùng nhiều sản phẩm, giảm lệ thuộc Nvidia và Microsoft
OpenAI gần đây đã bắt đầu thuê chip trí tuệ nhân tạo (AI) của Google để vận hành ChatGPT và các sản phẩm khác của mình, một nguồn tin thân cận cho Reuters biết.
OpenAI, công ty khởi nghiệp nổi tiếng tạo ra ChatGPT, là một trong những khách hàng lớn nhất với Nvidia, sử dụng các chip AI của hãng này để huấn luyện mô hình và phục vụ cho quá trình suy luận. Đây là giai đoạn mà mô hình AI sử dụng kiến thức đã được huấn luyện để đưa ra dự đoán hoặc quyết định dựa trên thông tin mới.
OpenAI đã lên kế hoạch bổ sung dịch vụ Google Cloud nhằm đáp ứng nhu cầu ngày càng tăng về năng lực điện toán, đánh dấu một sự hợp tác đáng ngạc nhiên giữa hai đối thủ nổi bật trong lĩnh vực AI, theo một bản tin trước đó trong tháng này của Reuters.
Thỏa thuận trên diễn ra trong bối cảnh Google đang mở rộng khả năng cung cấp ra bên ngoài các bộ xử lý tensor (TPU) do hãng tự phát triển, vốn trước đây chỉ dùng cho nội bộ. Động thái đó giúp Google giành được các khách hàng lớn như Apple, cũng như công ty khởi nghiệp Anthropic và Safe Superintelligence - hai đối thủ cạnh tranh với OpenAI được sáng lập bởi các cựu lãnh đạo công ty này.
Việc OpenAI thuê các TPU của Google đánh dấu lần đầu tiên công ty này sử dụng một cách đáng kể các chip không phải từ Nvidia, cho thấy sự chuyển hướng của công ty do Sam Altman điều hành khỏi việc phụ thuộc vào các trung tâm dữ liệu Microsoft. Điều này có thể khả năng thúc đẩy TPU trở thành lựa chọn rẻ hơn so với GPU (bộ xử lý đồ họa) của Nvidia, theo trang The Information.

OpenAI thuê chip AI từ Google: Cạnh tranh nhưng vẫn cần nhau! - Ảnh: Internet
Microsoft hiện là nhà đầu tư lớn nhất vào OpenAI (gần 14 tỉ USD), nhưng gần đây hai bên có cuộc đối đầu ngầm trong mảng khách hàng doanh nghiệp và lập trình AI.
OpenAI và Microsoft cũng đang bất đồng về một điều khoản hợp đồng liên quan đến trí tuệ nhân tạo tổng quát (AGI), theo báo cáo của trang The Information.
Theo các điều khoản hiện tại, khi OpenAI đạt được AGI, quyền truy cập của Microsoft vào công nghệ này sẽ bị vô hiệu hóa. Microsoft muốn OpenAI loại bỏ điều khoản đó, nhưng đến nay OpenAI vẫn từ chối, theo báo cáo cho biết.
AGI là dạng AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt, giống hay vượt trội con người. Không giống AI hẹp, vốn chỉ giỏi trong một lĩnh vực cụ thể (như nhận dạng giọng nói hoặc hình ảnh), AGI có khả năng áp dụng kiến thức và kỹ năng trong nhiều lĩnh vực khác nhau, từ đó giải quyết các vấn đề phức tạp một cách tự chủ và sáng tạo. OpenAI định nghĩa AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".
Không cho đối thủ thuê các TPU mạnh nhất
OpenAI hy vọng rằng các TPU, được thuê thông qua Google Cloud, sẽ giúp giảm chi phí suy luận. Tuy nhiên, Google (đối thủ chính của OpenAI trong cuộc đua AI) không cho đối thủ thuê các TPU mạnh nhất của mình, The Information dẫn lời một nhân viên Google Cloud.
Google từ chối bình luận, còn OpenAI chưa phản hồi ngay với Reuters khi được liên hệ.
Việc Google bổ sung OpenAI vào danh sách khách hàng cho thấy gã khổng lồ công nghệ Mỹ này đang tận dụng công nghệ AI nội bộ, từ phần cứng đến phần mềm, để thúc đẩy tăng trưởng mảng điện toán đám mây.
Google giới thiệu chip AI đột phá về suy luận, mạnh nhất và tiết kiệm năng lượng nhất của mình
Trong hội nghị Cloud Next diễn ra đầu tháng 4, Google đã ra mắt chip tăng tốc AI TPU mới nhất của mình.
Chip AI mới này có tên Ironwood, là TPU thế hệ thứ 7 của Google. Ironwood là chip đầu tiên được tối ưu hóa cho suy luận, tức là quá trình vận hành mô hình AI đã được huấn luyện sẵn để đưa ra kết quả hoặc dự đoán từ dữ liệu đầu vào.
Cloud Next là hội nghị thường niên lớn nhất của Google Cloud - nền tảng điện toán đám mây do Google phát triển và vận hành. Hội nghị này là nơi Google công bố những công nghệ, sản phẩm và cải tiến mới nhất trong lĩnh vực điện toán đám mây, AI, dữ liệu lớn (big data), bảo mật và phát triển phần mềm.
TPU là loại chip chuyên dụng được Google phát triển nhằm tăng tốc quá trình điện toán AI, đặc biệt là các tác vụ liên quan đến học máy sử dụng TensorFlow.
TensorFlow là thư viện mã nguồn mở do Google phát triển, dùng để xây dựng và huấn luyện mô hình học máy và học sâu. Nó giúp nhà phát triển AI tạo ra các mô hình có thể học từ dữ liệu, rồi dự đoán, phân loại, dịch ngôn ngữ, nhận diện hình ảnh…
1. Học máy là lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định. Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn, mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
2. Học sâu là lĩnh vực trong AI tập trung vào việc xây dựng và huấn luyện các mô hình học máy sâu, còn được gọi là mạng nơ-ron sâu. Mục tiêu của học sâu là tự động học các đặc trưng và biểu diễn cấp cao từ dữ liệu, giúp máy tính tự động thực hiện các nhiệm vụ phức tạp mà trước đây đòi hỏi sự can thiệp của con người.
Mô hình học sâu thường được xây dựng bằng cách sử dụng nhiều lớp của các nơ-ron. Nơ-ron là các đơn vị tính toán cơ bản mô phỏng theo cách hoạt động của não người. Những mô hình này có khả năng học các biểu diễn phức tạp của dữ liệu thông qua quá trình huấn luyện trên tập dữ liệu lớn.
Học sâu đã đạt được sự chú ý lớn nhờ vào khả năng giải quyết hiệu quả nhiều vấn đề khác nhau, bao gồm nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên, nhận dạng giọng nói, dịch ngôn ngữ, phân tích dự đoán, robot và nhiều ứng dụng khác trong thực tế. Các mô hình nổi tiếng trong học sâu bao gồm Mạng nơ-ron tích chập (CNN) và Mạng nơ-ron hồi quy (RNN).
Dự kiến ra mắt vào cuối năm 2025 dành cho khách hàng Google Cloud, Ironwood sẽ có hai cấu hình: Một cụm gồm 256 chip và cụm lớn hơn với 9.216 chip.
"Ironwood là TPU mạnh mẽ nhất, linh hoạt nhất và tiết kiệm năng lượng nhất của chúng tôi tính đến nay. Nó được thiết kế chuyên biệt để hỗ trợ các mô hình AI suy luận ở quy mô lớn", ông Amin Vahdat (Phó chủ tịch Google Cloud) viết trong một bài đăng blog.
Theo các bài kiểm thử nội bộ của Google, Ironwood có thể đạt sức mạnh tính toán ở mức cao nhất là 4.614 TFLOPs (4.614 nghìn tỉ phép toán dấu phẩy động mỗi giây). Mỗi chip có 192GB RAM chuyên dụng với băng thông lên tới 7,4 Tbps.
Ironwood cũng được trang bị lõi chuyên biệt nâng cao có tên SparseCore, được thiết kế để xử lý các loại dữ liệu phổ biến trong các tác vụ như "xếp hạng nâng cao" và "gợi ý" (ví dụ một thuật toán đề xuất sản phẩm thời trang bạn có thể thích). Google cho biết kiến trúc của Ironwood được tối ưu để giảm thiểu di chuyển dữ liệu và độ trễ trong chip, từ đó tiết kiệm điện năng.
Google có kế hoạch tích hợp Ironwood vào AI Hypercomputer trong tương lai gần, theo ông Amin Vahdat.
"Ironwood là bước đột phá độc đáo trong kỷ nguyên suy luận, với sức mạnh tính toán cao hơn, dung lượng bộ nhớ lớn hơn, cải tiến về mạng và độ tin cậy", Amin Vahdat nhấn mạnh.
AI Hypercomputer là khái niệm mới và đặc biệt do Google Cloud đưa ra, dùng để mô tả một hệ thống điện toán AI cực kỳ mạnh mẽ, kết hợp phần cứng với phần mềm tối ưu cho việc huấn luyện và chạy các mô hình ngôn ngữ lớn. AI Hypercomputer là "siêu máy tính dành riêng cho AI", nhưng không phải là cỗ máy duy nhất mà là một cụm gồm hàng ngàn chip, bộ nhớ, mạng tốc độ cao cùng các công nghệ AI đi kèm, tất cả được thiết kế để làm cho AI chạy nhanh hơn, tiết kiệm hơn và thông minh hơn.
Ironwood ra mắt khi cuộc cạnh tranh trong lĩnh vực chip tăng tốc AI đang nóng lên. Nvidia đang dẫn đầu, nhưng các hãng công nghệ lớn như Amazon và Microsoft cũng thúc đẩy các giải pháp tự phát triển.
Microsoft triển khai các phiên bản Azure sử dụng chip AI Cobalt 100 của họ. Amazon có các chip AI Trainium, Inferentia và Graviton, được cung cấp qua nền tảng điện toán đám mây Amazon Web Services.
Amazon Web Services chuẩn bị công bố bản cập nhật cho chip Graviton4, với băng thông mạng lên tới 600 gigabit mỗi giây, mức mà công ty gọi là cao nhất trong lĩnh vực điện toán đám mây công cộng. Ali Saidi, kỹ sư lỗi lạc tại Amazon Web Services, ví tốc độ này như một cỗ máy có thể đọc được 100 đĩa CD nhạc mỗi giây.
Graviton4 là CPU (bộ xử lý trung tâm), một trong nhiều sản phẩm chip đến từ Phòng thí nghiệm Annapurna của Amazon tại thành phố Austin, bang Texas, Mỹ. Graviton4 là một bước tiến trong chiến lược phát triển chip tùy chỉnh của Amazon, giúp gã khổng lồ thương mại điện tử cạnh tranh trực tiếp với các đối thủ bán dẫn truyền thống như Intel và AMD. Tuy nhiên, trận chiến thực sự lại diễn ra với Nvidia trong thị trường cơ sở hạ tầng AI.