Ironwood: Chip AI đột phá trong kỷ nguyên suy luận, mạnh nhất và tiết kiệm năng lượng nhất của Google
Trong hội nghị Cloud Next diễn ra từ ngày 9 đến 11.4, Google đã ra mắt chip tăng tốc trí tuệ nhân tạo TPU mới nhất của mình.
Cloud Next là hội nghị thường niên lớn nhất của Google Cloud - nền tảng điện toán đám mây do Google phát triển và vận hành. Hội nghị này là nơi Google công bố những công nghệ, sản phẩm và cải tiến mới nhất trong lĩnh vực điện toán đám mây, trí tuệ nhân tạo (AI), dữ liệu lớn (big data), bảo mật và phát triển phần mềm.
Chip AI mới có tên Ironwood, là TPU (Tensor Processing Unit) thế hệ thứ 7 của Google. Ironwood là chip đầu tiên được tối ưu hóa cho suy luận, tức là quá trình vận hành mô hình AI đã được huấn luyện sẵn để đưa ra kết quả hoặc dự đoán từ dữ liệu đầu vào.
TPU là loại chip chuyên dụng được Google phát triển nhằm tăng tốc quá trình tính toán AI, đặc biệt là các tác vụ liên quan đến học máy sử dụng TensorFlow.
TensorFlow là thư viện mã nguồn mở do Google phát triển, dùng để xây dựng và huấn luyện mô hình học máy và học sâu. Nó giúp nhà phát triển AI tạo ra các mô hình có thể học từ dữ liệu, rồi dự đoán, phân loại, dịch ngôn ngữ, nhận diện hình ảnh…
1. Học máy là lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định. Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn (big data), mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
2. Học sâu là lĩnh vực trong AI tập trung vào việc xây dựng và huấn luyện các mô hình học máy sâu, còn được gọi là mạng nơ-ron sâu. Mục tiêu của học sâu là tự động học các đặc trưng và biểu diễn cấp cao từ dữ liệu, giúp máy tính tự động thực hiện các nhiệm vụ phức tạp mà trước đây đòi hỏi sự can thiệp của con người.
Mô hình học sâu thường được xây dựng bằng cách sử dụng nhiều lớp của các nơ-ron. Nơ-ron là các đơn vị tính toán cơ bản mô phỏng theo cách hoạt động của não người. Những mô hình này có khả năng học các biểu diễn phức tạp của dữ liệu thông qua quá trình huấn luyện trên tập dữ liệu lớn.
Học sâu đã đạt được sự chú ý lớn nhờ vào khả năng giải quyết hiệu quả nhiều vấn đề khác nhau, bao gồm nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên, nhận dạng giọng nói, dịch ngôn ngữ, phân tích dự đoán, robot và nhiều ứng dụng khác trong thực tế. Các mô hình nổi tiếng trong học sâu bao gồm Mạng nơ-ron tích chập (CNN) và Mạng nơ-ron hồi quy (RNN).
Dự kiến ra mắt vào cuối năm 2025 dành cho khách hàng Google Cloud, Ironwood sẽ có hai cấu hình: Một cụm gồm 256 chip và cụm lớn hơn với 9.216 chip.
"Ironwood là TPU mạnh mẽ nhất, linh hoạt nhất và tiết kiệm năng lượng nhất của chúng tôi tính đến nay. Nó được thiết kế chuyên biệt để hỗ trợ các mô hình AI suy luận ở quy mô lớn", ông Amin Vahdat (Phó chủ tịch Google Cloud) viết trong một bài đăng blog.
Ironwood ra mắt khi cuộc cạnh tranh trong lĩnh vực chip tăng tốc AI đang nóng lên. Nvidia đang dẫn đầu, nhưng các hãng công nghệ lớn như Amazon và Microsoft cũng thúc đẩy các giải pháp tự phát triển. Amazon có các chip AI Trainium, Inferentia và Graviton, được cung cấp qua nền tảng điện toán đám mây Amazon Web Services. Microsoft triển khai các phiên bản Azure sử dụng chip AI Cobalt 100 của họ.
Theo các bài kiểm thử nội bộ của Google, Ironwood có thể đạt sức mạnh tính toán ở mức cao nhất là 4.614 TFLOPs (4.614 nghìn tỉ phép toán dấu phẩy động mỗi giây). Mỗi chip có 192GB RAM chuyên dụng với băng thông lên tới 7,4 Tbps.
Ironwood cũng được trang bị lõi chuyên biệt nâng cao có tên SparseCore, được thiết kế để xử lý các loại dữ liệu phổ biến trong các tác vụ như "xếp hạng nâng cao" và "gợi ý" (ví dụ một thuật toán đề xuất sản phẩm thời trang bạn có thể thích). Google cho biết kiến trúc của Ironwood được tối ưu để giảm thiểu di chuyển dữ liệu và độ trễ trong chip, từ đó tiết kiệm điện năng.
Google có kế hoạch tích hợp Ironwood vào AI Hypercomputer trong tương lai gần, theo ông Amin Vahdat.
"Ironwood là bước đột phá độc đáo trong kỷ nguyên suy luận, với sức mạnh tính toán cao hơn, dung lượng bộ nhớ lớn hơn, cải tiến về mạng và độ tin cậy", Amin Vahdat nhấn mạnh.
AI Hypercomputer là khái niệm mới và đặc biệt do Google Cloud đưa ra, dùng để mô tả một hệ thống điện toán AI cực kỳ mạnh mẽ, kết hợp phần cứng với phần mềm tối ưu cho việc huấn luyện và chạy các mô hình ngôn ngữ lớn. AI Hypercomputer là "siêu máy tính dành riêng cho AI", nhưng không phải là cỗ máy duy nhất mà là một cụm gồm hàng ngàn chip, bộ nhớ, mạng tốc độ cao cùng các công nghệ AI đi kèm, tất cả được thiết kế để làm cho AI chạy nhanh hơn, tiết kiệm hơn và thông minh hơn.

Ironwood là TPU mạnh mẽ nhất, linh hoạt nhất và tiết kiệm năng lượng nhất của Google đến nay - Ảnh: Internet
Tuần trước, Google đã giới thiệu Gemini 2.5, dòng mô hình AI mới có khả năng "tạm dừng" để suy nghĩ trước khi phản hồi. Google cho biết tất cả mô hình Gemini mới sẽ mặc định có khả năng suy luận logic.
Được Google giới thiệu là "mô hình AI thông minh nhất", phiên bản Gemini 2.5 Pro Experimental là mô hình đa phương thức được thiết kế để xử lý logic, các nhiệm vụ STEM, lập trình và ứng dụng tác vụ tự động. Nó có thể xử lý văn bản, âm thanh, hình ảnh, video và mã lập trình.
STEM là viết tắt của Science, Technology, Engineering, and Mathematics (Khoa học, Công nghệ, Kỹ thuật và Toán học). Đây là nhóm các lĩnh vực giáo dục và nghề nghiệp tập trung vào khoa học tự nhiên, công nghệ, kỹ thuật và toán học, thường được khuyến khích vì vai trò quan trọng trong đổi mới, nghiên cứu và phát triển kinh tế. STEM đặc biệt quan trọng trong thời đại công nghệ số, khi các ngành như AI, dữ liệu lớn và kỹ thuật phần mềm ngày càng phát triển.
Chỉ ít ngày sau khi ra mắt, Google hôm 29.3 thông báo triển khai Gemini 2.5 Pro Experimental bản thử nghiệm miễn phí cho tất cả người dùng, với giới hạn số lần sử dụng trong ngày.
Đây là động thái gây bất ngờ dịch vụ này trước đó chỉ dành cho những người đăng ký Gemini Advanced có trả phí, trong đó gói thấp nhất Google One AI Premium giá 19,99 USD/tháng tại Mỹ.
Google cho biết muốn "đưa mô hình AI thông minh nhất đến tay càng nhiều người dùng, càng sớm càng tốt". Gemini 2.5 Pro Experimental bản thử nghiệm đang đứng đầu bảng xếp hạng LMArena, đồng thời dẫn đầu cả về điểm chuẩn toán học và khoa học. Google nói đang nỗ lực cải thiện cả hiệu suất lập trình của mô hình này.
LMArena là nền tảng trực tuyến cho phép người dùng so sánh và đánh giá các mô hình ngôn ngữ lớn và chatbot AI khác nhau. Nền tảng này cung cấp các trận đấu ẩn danh và ngẫu nhiên giữa các mô hình AI, cho phép người dùng bỏ phiếu cho mô hình hoạt động tốt hơn mà không cần đăng ký.
LMArena hỗ trợ nhiều chatbot AI nổi bật. Người dùng có thể tương tác với các chatbot này và tham gia vào quá trình đánh giá hiệu suất của chúng.
Ngoài ra, LMArena còn cung cấp bảng xếp hạng các mô hình AI dựa trên hơn 1.000.000 lượt bình chọn từ cộng đồng, giúp người dùng dễ dàng theo dõi và so sánh hiệu suất của các mô hình ngôn ngữ lớn hiện có.
Hiện tại, mô hình vẫn trong giai đoạn thử nghiệm nhưng đã hỗ trợ một số tính năng như thao tác với ứng dụng, tiện tích mở rộng, tải file lên và cả Canvas.
Gemini 2.5 Pro có thể tự suy luận, phân tích các bước logic trong suy nghĩ trước khi đưa ra phản hồi. Mục tiêu là nâng cao hiệu suất, cải thiện độ chính xác, đặc biệt khi xử lý các vấn đề phức tạp.
Gemini 2.5 Pro đạt điểm 18,8% trên bộ dữ liệu Humanity’s Last Exam (HLE). Đây là bộ tiêu chuẩn đánh giá khả năng của các mô hình ngôn ngữ lớn thông qua 3.000 câu hỏi đa dạng về toán học, nhân văn và khoa học tự nhiên. Được phát triển bởi Trung tâm An toàn AI (CAIS) và Scale AI, HLE kiểm tra khả năng suy luận và kiến thức của AI ở mức độ chuyên gia. Bộ câu hỏi này được đóng góp bởi gần 1.000 chuyên gia từ hơn 500 tổ chức trên 50 quốc gia, gồm cả câu hỏi trắc nghiệm và trả lời ngắn, phù hợp cho việc chấm điểm tự động.
Theo người dùng, Gemini 2.5 Pro vượt trội trong việc tạo ra các ứng dụng web có giao diện hấp dẫn, ứng dụng mã tác nhân cũng như chuyển đổi và chỉnh sửa mã nguồn.