Google ký hợp đồng đám mây hơn 10 tỉ USD với Meta sau thương vụ cùng OpenAI
Google vừa có hợp đồng điện toán đám mây lớn trị giá hơn 10 tỉ USD với Meta Platforms, trang The Information cho biết hôm 22.8, trích dẫn hai nguồn tin thân cận.
Theo đó, Meta Platforms sẽ sử dụng máy chủ, dịch vụ lưu trữ, mạng và các dịch vụ khác của Google Cloud.
Google Cloud là nền tảng điện toán đám mây do Google phát triển, cung cấp các dịch vụ điện toán, lưu trữ, phân tích dữ liệu, trí tuệ nhân tạo (AI), học máy cùng nhiều công cụ khác cho doanh nghiệp, nhà phát triển, tổ chức chính phủ và cá nhân. Học máy là lĩnh vực thuộc AI, tập trung vào việc nghiên cứu và phát triển các kỹ thuật cho phép hệ thống máy tính "học" tự động từ dữ liệu để giải quyết các vấn đề cụ thể, mà không cần phải được lập trình tường minh cho từng tác vụ.
Thỏa thuận này được xem là một chiến thắng cho Google, khi mảng điện toán đám mây của họ còn non trẻ và nhỏ hơn so với Amazon lẫn Microsoft.

Google vừa đạt được thỏa thuận điện toán đám mây lớn trị giá hơn 10 tỉ USD với Meta Platforms - Ảnh: Internet
Trước Meta Platforms là OpenAI
Trước đó, Google đã có hợp đồng điện toán đám mây với hai công ty khởi nghiệp AI hàng đầu là OpenAI (“cha đẻ ChatGPT”) và Anthropic (được thành lập bởi các cựu lãnh đạo OpenAI).
Ngoài ra, một số phòng thí nghiệm AI lớn cũng chọn Google Cloud làm đối tác điện toán đám mây, gồm cả Safe Superintelligence của Ilya Sutskever (đồng sáng lập và cựu giám đốc khoa học OpenAI), World Labs của nhà khoa học máy tính Fei-Fei Li.
Fei-Fei Li là một trong những nhà khoa học hàng đầu thế giới trong lĩnh vực AI và thị giác máy tính. Bà được biết đến như là “mẹ đẻ của ImageNet” - dự án dữ liệu hình ảnh khổng lồ đã góp phần thúc đẩy làn sóng học sâu hiện đại.
Sundar Pichai, Giám đốc điều hành Google, cho biết công ty đã thành công trong việc giành được các thỏa thuận với các phòng thí nghiệm AI lớn, nhờ vào nguồn cung dồi dào GPU (bộ xử lý đồ họa) Nvidia và TPU nội bộ của công ty.
TPU (Tensor Processing Unit) là loại chip xử lý chuyên dụng do Google thiết kế riêng cho AI, đặc biệt là các tác vụ sử dụng thư viện TensorFlow. TensorFlow là thư viện mã nguồn mở do Google phát triển, dùng để xây dựng và huấn luyện các mô hình học máy và học sâu. Cụ thể hơn, TensorFlow là bộ công cụ lập trình AI mạnh mẽ của Google, giúp máy tính học từ dữ liệu, ra quyết định, nhận diện hình ảnh, hiểu ngôn ngữ…
Trong quý 2/2025, doanh thu của Google Cloud đã tăng vọt lên 13,6 tỉ USD, so với 10,3 tỉ USD cùng kỳ năm trước. Google cho rằng một phần đáng kể của sự tăng trưởng này đến từ nền tảng Google Cloud và các sản phẩm khác mà hãng cung cấp cho các công ty AI.
Quy mô Google Cloud vẫn còn nhỏ so với mảng tìm kiếm, nhưng rõ ràng đang tăng trưởng nhanh chóng trong kỷ nguyên AI.

OpenAI cho biết sẽ sử dụng hạ tầng đám mây của Google cho ChatGPT, giảm phụ thuộc Microsoft - Ảnh: Internet
Giữa tháng 7, OpenAI đã đưa Google Cloud vào danh sách các nhà cung cấp để đáp ứng nhu cầu điện toán ngày càng gia tăng, theo trang web của công ty. OpenAI chỉ rõ rằng ChatGPT và giao diện lập trình ứng dụng (API) của công ty sẽ sử dụng nền tảng Google Cloud. Trước đó, gã khổng lồ AI Mỹ sử dụng dịch vụ điện toán đám mây từ Microsoft, Oracle và CoreWeave.
Thỏa thuận này nêu bật nhu cầu điện toán khổng lồ để huấn luyện và triển khai các mô hình đang tái định hình cán cân cạnh tranh trong ngành AI, đồng thời đánh dấu bước đi mới nhất của OpenAI nhằm đa dạng hóa nguồn tài nguyên điện toán, vượt ra ngoài Microsoft (nhà tài trợ lớn nhất với hơn 13 tỉ USD), gồm cả dự án trung tâm dữ liệu quy mô lớn mang tên Stargate.
Đầu năm nay, OpenAI đã hợp tác với tập đoàn SoftBank Group (Nhật Bản) cùng Oracle (Mỹ) trong chương trình hạ tầng Stargate trị giá 500 tỉ USD và ký các thỏa thuận hàng tỉ USD với CoreWeave để tăng cường năng lực điện toán.
Vào tháng 1, Sam Altman (Giám đốc điều hành OpenAI) cùng Masayoshi Son (Giám đốc điều hành SoftBank Group) và Larry Ellison (Chủ tịch hội đồng quản trị kiêm Giám đốc công nghệ Oracle) đến Nhà Trắng để công bố một dự án hạ tầng Stargate trị giá 500 tỉ USD trong 4 năm. Tuy nhiên, Sam Altman hình dung rằng chi tiêu thực tế sẽ còn lớn hơn nhiều so với quy mô hiện tại của Stargate.
Oracle đã thuê trung tâm dữ liệu 2 gigawatt tại thành phố Abilene, bang Texas (Mỹ), do công ty khởi nghiệp Crusoe và hãng đầu tư Blue Owl Capital xây dựng.
Crusoe cùng Blue Owl Capital huy động được khoảng 5 tỉ USD vốn chủ sở hữu từ các nhà đầu tư và vay gần 10 tỉ USD từ ngân hàng JPMorgan (Mỹ) cho việc xây dựng trung tâm dữ liệu, được bảo đảm bằng hợp đồng thuê 15 năm của Oracle.
Đổi lại, Oracle sẽ cung cấp cho OpenAI 4,5 gigawatt công suất, gồm cả từ trung tâm dữ liệu ở Abilene, theo hợp đồng trị giá khoảng 30 tỉ USD/năm. Đó là phần mở đầu cho dự án trung tâm dữ liệu Stargate của “cha đẻ ChatGPT” tại Mỹ.
Quan hệ hợp tác với Google là bước đi mới nhất trong loạt nỗ lực của OpenAI nhằm giảm sự phụ thuộc vào Microsoft - vốn từng là nhà cung cấp hạ tầng trung tâm dữ liệu độc quyền cho “cha đẻ ChatGPT” thông qua dịch vụ đám mây Azure cho đến tháng 1 vừa qua.
Năm ngoái, Oracle thông báo đang hợp tác với Microsoft và OpenAI “để mở rộng nền tảng AI Azure của Microsoft sang hạ tầng đám mây Oracle” nhằm cung cấp thêm năng lực điện toán cho công ty tạo ra ChatGPT.
Vào tháng 3, OpenAI đã ký hợp đồng điện toán đám mây với CoreWeave trong một thỏa thuận kéo dài 5 năm trị giá gần 12 tỉ USD.
Hồi tháng 1, Microsoft cho biết đồng ý chuyển sang mô hình “quyền từ chối đầu tiên” mỗi khi OpenAI cần thêm tài nguyên điện toán, thay vì là nhà cung cấp độc quyền như trước. Tuy vậy, Microsoft vẫn nắm giữ quyền cung cấp độc quyền với các API của OpenAI.
Sam Altman hồi tháng 4 cho biết OpenAI, vốn dựa nhiều vào các GPU Nvidia để vận hành các mô hình ngôn ngữ lớn, đang gặp phải hạn chế về năng lực xử lý.
“Nếu ai có sẵn GPU với số lượng khoảng 100.000 chiếc thì làm ơn gọi cho tôi gấp nhé!”, ông viết trên mạng xã hội X vào thời điểm đó.
OpenAI chọn Google Cloud làm đối tác có vẻ là động thái thông minh bởi công ty khởi nghiệp này đang thiếu hụt GPU, thứ họ cần cho quá trình huấn luyện và suy luận của các mô hình AI mới, cũng như cung cấp dịch vụ cho hơn 700 triệu người dùng ChatGPT.
Sundar Pichai cho biết ông “rất hào hứng” khi cung cấp tài nguyên điện toán đám mây cho OpenAI để huấn luyện và vận hành các mô hình AI của công ty này, như một phần trong thỏa thuận hợp tác vừa được ký kết. Điều đáng nói: OpenAI là đối thủ lớn nhất của Google trong AI.
“Liên quan đến OpenAI, chúng tôi thực sự rất hào hứng được hợp tác với họ trên Google Cloud. Google Cloud là một nền tảng mở và chúng tôi có truyền thống lâu dài trong việc hỗ trợ các công ty lớn, startup, phòng thí nghiệm AI… Vì vậy, chúng tôi rất hào hứng với mối quan hệ hợp tác này trong mảng điện toán đám mây, mong muốn tiếp tục đầu tư và mở rộng mối quan hệ đó”, ông Sundar Pichai phát biểu trong buổi báo cáo kết quả tài chính quý 2/2025 của Alphabet (công ty mẹ Google) cuối tháng 7.
Sundar Pichai đưa ra bình luận ngay sau khi các nhà phân tích liên tục chất vấn ông cùng các lãnh đạo Google khác về việc AI sẽ tác động như thế nào đến mảng kinh doanh cốt lõi là tìm kiếm, cũng như lý do Google lại bỏ thêm 10 tỉ USD cho chi tiêu vốn trong năm 2025 để bắt kịp trong cuộc đua AI.
Hơn hai năm rưỡi kể từ khi ChatGPT trình làng vào tháng 11.2023, Google đã hoàn toàn chuyển trọng tâm sang phát triển các mô hình AI hàng đầu và sản phẩm để cạnh tranh với OpenAI.
ChatGPT là mối đe dọa lớn cho Google Search, nhưng thỏa thuận với OpenAI lại đem về cho Google Cloud một khách hàng lớn. Dù vậy, đây là mối quan hệ đầy rủi ro cho Google, khi mà OpenAI có thể cuối cùng sử dụng chính hạ tầng điện toán đám mây và chip AI Google để lật đổ sản phẩm tìm kiếm chủ lực của gã khổng lồ công nghệ Mỹ.
Thật khó hình dung Sundar Pichai thực sự "hào hứng" như thế nào khi hợp tác cùng OpenAI. Mối quan hệ hợp tác này gợi nhớ đến thỏa thuận giữa Google và Yahoo năm xưa. Khi đó, Google chỉ là công ty khởi nghiệp non trẻ, từng dùng chính trang chủ Yahoo để phát triển, rồi sau đó vượt mặt Yahoo để trở thành “cánh cổng chính” của internet.