Giám đốc công nghệ Meta đánh giá vị thế của Google, Microsoft, Amazon trong cuộc đua AI

'Google đang đối mặt với con đường khó khăn nhất, Microsoft ở vị thế mạnh, Amazon thì nằm đâu đó ở giữa'. Đó là đánh giá của Andrew Bosworth, Giám đốc công nghệ Meta Platforms, khi phân tích cách các hãng công nghệ lâu đời cạnh tranh trong cuộc đua AI.

"Nhiều người thường nghĩ rằng những công ty lớn từ thế hệ trước sẽ tiếp tục thống trị ở thế hệ tiếp theo. Thế nhưng, điều đó gần như không bao giờ xảy ra. Gần như không bao giờ", Andrew Bosworth nói trong một tập của podcast Possible.

Possible được dẫn dắt bởi Reid Hoffman và Aria Finger. Mỗi tập Possible là các cuộc phỏng vấn với các nhà lãnh đạo tư duy, nhà tư tưởng sâu sắc và người xây dựng tham vọng trong nhiều lĩnh vực như công nghệ, nghệ thuật, giáo dục, chăm sóc sức khỏe.

Những công ty đã vươn lên nhờ các làn sóng công nghệ trước đó không hẳn sẽ đứng đầu lần này. Andrew Bosworth tin rằng thế giới AI vẫn còn rất nhiều cơ hội cho những người chơi mới.

"Tôi không biết tại sao hoặc bằng cách nào, nhưng tôi nghĩ rằng vẫn có rất nhiều không gian cho những công nghệ thực sự mang tính đột phá", ông nói.

Andrew Bosworth cho rằng Llama, mô hình mã nguồn mở của Meta Platforms, đã cung cấp cho các công ty khởi nghiệp một nền tảng tốt hơn để đổi mới và "xây dựng hệ sinh thái" với các hãng non trẻ.

"Chúng tôi thực sự thấy điều đó diễn ra rõ ràng khi các nhà cung cấp đám mây quy mô lớn buộc phải tiếp nhận những đổi mới đến từ các công ty khởi nghiệp nhỏ này, và tất nhiên điều ngược lại cũng đang xảy ra", Giám đốc công nghệ Meta Platforms nói.

Andrew Bosworth cho rằng Google đang ở trong tình thế khó khăn khi chạy đua về AI - Ảnh: Getty Images

Andrew Bosworth cho rằng Google đang ở trong tình thế khó khăn khi chạy đua về AI - Ảnh: Getty Images

Vị thế của Google, Meta, Microsoft, Amazon trong cuộc đua AI

Về vị thế của các đối thủ cùng ngành, Andrew Bosworth cho rằng Google đang đối mặt với con đường khó khăn nhất.

"Google gặp thách thức về mô hình kinh doanh, đúng không? Họ có sẵn sàng tự phá vỡ và làm tổn hại đến một trong những mô hình kinh doanh thành công nhất, nếu không muốn nói là thành công nhất mọi thời đại, hay không? Google có công nghệ, có khả năng, nhưng đang chịu áp lực và mâu thuẫn nội bộ. Đó là một tình huống khó khăn", ông nhận xét.

Andrew Bosworth đang nói về việc Google có một mô hình kinh doanh dựa chủ yếu vào quảng cáo tìm kiếm, vốn đã mang lại doanh thu khổng lồ trong nhiều năm. Tuy nhiên, với sự phát triển của AI và các chatbot như Gemini, có nguy cơ người dùng sẽ dần ít tìm kiếm trên Google theo cách truyền thống, làm giảm doanh thu quảng cáo.

Google có đủ công nghệ và nguồn lực để dẫn đầu cuộc đua AI, nhưng cũng phải đối mặt với mâu thuẫn nội bộ: Nếu đẩy mạnh AI, họ có thể làm tổn hại đến mô hình kinh doanh cốt lõi của mình. Đây là tình thế tiến thoái lưỡng nan khiến Google gặp khó khăn trong việc ra quyết định.

Với Meta Platforms, Andrew Bosworth cho rằng tiềm năng của AI “chỉ toàn là lợi ích".

Meta Platforms đã đầu tư hàng tỉ USD vào AI và Giám đốc điều hành Mark Zuckerberg cho biết công ty dự kiến sẽ chi hơn 60 tỉ USD trong năm 2025, phần lớn dành cho công nghệ này.

"Tất cả sản phẩm của chúng tôi đều trở nên tốt hơn. Chúng chỉ trở nên tốt hơn. Đó hoàn toàn là tin tốt cho chúng tôi", Andrew Bosworth nhấn mạnh.

Ông cũng đánh giá Microsoft đang có lợi thế tương tự.

"Tôi nghĩ Microsoft cũng đang ở vị thế mạnh tương tự. Các sản phẩm của họ sẽ tốt hơn. Người dùng các sản phẩm của Office sẽ có trải nghiệm tốt hơn. Có AI không đồng nghĩa bạn tạo ra được Office. Nhưng Office được tích hợp AI chắc chắn sẽ tốt hơn. Vì vậy, tôi nghĩ rằng chúng tôi và Microsoft sẽ chiến thắng, bất kể điều gì xảy ra", Andrew Bosworth tuyên bố.

Với Amazon, Andrew Bosworth cho rằng công ty này đang nằm "ở đâu đó ở giữa".

"Amazon Web Services (đơn vị điện toán đám mây của Amazon) chắc chắn có thể được hưởng lợi rất nhiều, nhưng đây có phải là một cuộc đua xuống đáy không (giảm giá hoặc tối ưu hóa chi phí đến mức cực đoan, dẫn đến lợi nhuận thấp và khó tạo ra giá trị thực sự) và họ chỉ đang thêm một dịch vụ nhỏ lẻ nữa vào hệ sinh thái của mình? Vì vậy, có thể họ không được hưởng lợi nhiều từ AI", Andrew Bosworth nói.

Tuy nhiên, Andrew Bosworth cho rằng Amazon vẫn có tiềm năng cải tiến các dịch vụ hiện có.

"Họ công bố quan hệ đối tác với Anthropic. Họ đã đầu tư rất nhiều vào Anthropic. Alexa có một lượng người dùng khổng lồ. Liệu họ có thể trẻ hóa Alexa với chương trình AI mới này không?", ông bình luận.

Amazon đã đầu tư tổng cộng 8 tỉ USD vào Anthropic, công ty khởi nghiệp AI cạnh tranh với OpenAI. Vào tháng 9.2023, Amazon cam kết đầu tư 4 tỉ USD, với khoản đầu tư ban đầu là 1,25 tỉ USD và kế hoạch bổ sung thêm 2,75 tỉ USD đầu năm 2024. Đến tháng 11.2024, Amazon công bố một khoản đầu tư bổ sung 4 tỉ USD vào Anthropic, nâng tổng số lên 8 tỉ USD. Mục tiêu khi Amazon chi số tiền này là mong chip AI của mình được sử dụng nhiều hơn để đào tạo và vận hành các mô hình ngôn ngữ lớn.

Để đổi lấy khoản tiền đầu tư đó, Anthropic cho biết sẽ sử dụng Amazon Web Services làm "đối tác chính về đào tạo AI và đám mây". Ngoài ra, Anthropic tuyên bố sẽ giúp Amazon thiết kế chip Trainium trong tương lai và đóng góp vào việc xây dựng AWS Neuron - nền tảng phát triển mô hình AI của Amazon.

Đây được xem là đòn tấn công trực diện vào Nvidia, công ty thống trị thị trường chip AI với GPU (bộ xử lý đồ họa), máy chủ và nền tảng CUDA.

Thách thức với Amazon là thuyết phục Anthropic thực sự sử dụng chip Trainium trên quy mô lớn. Chuyển đổi từ GPU Nvidia là phức tạp, tốn thời gian và rủi ro với các nhà phát triển mô hình AI. Amazon từng gặp khó khăn với điều đó.

Alexa là trợ lý ảo do Amazon phát triển, sử dụng AI để nhận diện giọng nói và thực hiện các lệnh của người dùng. Alexa được tích hợp trong các thiết bị như Amazon Echo, Echo Dot, Echo Show và một số thiết bị bên thứ ba.

Chức năng chính của Alexa

Trợ lý giọng nói: Trả lời câu hỏi, cung cấp thông tin về thời tiết, tin tức, thể thao, chứng khoán…

Điều khiển nhà thông minh: Kết nối và điều khiển các thiết bị như đèn, máy điều hòa, camera an ninh…

Phát nhạc và giải trí: Chơi nhạc từ Spotify, Amazon Music, Apple Music, đọc sách nói từ Audible.

Nhắc nhở và lịch trình: Đặt báo thức, nhắc nhở công việc, quản lý lịch trình.

Mua sắm trên Amazon: Hỗ trợ đặt hàng, theo dõi đơn hàng.

Amazon đang phát triển một phiên bản Alexa nâng cấp sử dụng mô hình AI mạnh mẽ hơn, với mục tiêu cải thiện khả năng đàm thoại và hỗ trợ người dùng tốt hơn.

Về việc ai sẽ trở thành người chiến thắng rõ ràng khi cơn sốt AI ban đầu lắng xuống, Andrew Bosworth không loại trừ các công ty khởi nghiệp.

"Các công ty khởi nghiệp là một ẩn số hoàn toàn, và đó là điều tôi yêu thích ở họ. Họ có thể xuất hiện từ hư không", ông nhận định.

Meta thử nghiệm chip đào tạo AI tự thiết kế đầu tiên để giảm phụ thuộc Nvidia

Meta Platforms đang thử nghiệm chip tự thiết kế đầu tiên để đào tạo các hệ thống AI. Đây là cột mốc quan trọng khi công ty mẹ Facebook hướng tới việc tự thiết kế nhiều chip tùy chỉnh hơn và giảm sự phụ thuộc vào nhà cung cấp bên ngoài như Nvidia, theo hai nguồn tin của Reuters.

Meta Platforms, công ty truyền thông xã hội lớn nhất thế giới, đã bắt đầu triển khai thử nghiệm chip này trên quy mô nhỏ và dự định mở rộng sản xuất để sử dụng rộng rãi nếu thử nghiệm thành công, các nguồn tin cho biết.

Nỗ lực phát triển chip nội bộ là một phần trong kế hoạch dài hạn của Meta Platforms nhằm giảm chi phí cơ sở hạ tầng khổng lồ, trong bối cảnh công ty đang đặt cược lớn vào các công cụ AI để thúc đẩy tăng trưởng.

Meta Platforms, chủ sở hữu của Facebook, Instagram và WhatsApp, dự đoán tổng chi phí năm 2025 sẽ vào khoảng 114 đến 119 tỉ USD, gồm cả 65 tỉ USD chi phí vốn chủ yếu do chi tiêu cho cơ sở hạ tầng AI.

Một nguồn tin cho biết chip đào tạo AI mới của Meta Platforms là bộ tăng tốc chuyên dụng, tức được thiết kế để xử lý các tác vụ cụ thể về AI. Điều này có thể giúp nó tiết kiệm năng lượng hơn so với các GPU tích hợp thường được sử dụng cho các tác vụ AI.

Meta Platforms đang hợp tác với TSMC để sản xuất chip này, nguồn tin này cho biết. TSMC là hãng sản xuất chip theo hợp đồng số 1 thế giới, có trụ sở ở Đài Loan.

Việc triển khai thử nghiệm bắt đầu sau khi Meta Platforms hoàn thành tape-out đầu tiên của chip. Tape-out là dấu mốc quan trọng trong quá trình phát triển chip, liên quan đến việc gửi thiết kế ban đầu đến một nhà máy sản xuất chip.

Một quy trình tape-out thông thường tốn hàng chục triệu USD và mất khoảng ba đến sáu tháng để hoàn thành, nhưng không có gì đảm bảo rằng thử nghiệm sẽ thành công. Nếu thất bại, Meta Platforms sẽ phải chẩn đoán vấn đề và lặp lại bước tape-out.

Chip này là sản phẩm mới nhất trong loạt chip Meta Training and Inference Accelerator (MTIA) của công ty. Chương trình này đã có khởi đầu chông chênh trong nhiều năm và từng hủy bỏ một chip ở giai đoạn phát triển tương tự.

Song năm ngoái, Meta Platforms bắt đầu sử dụng chip MTIA để thực hiện suy luận cho các hệ thống đề xuất quyết định nội dung hiển thị trên bảng tin Facebook và Instagram.

Suy luận là quá trình sử dụng mô hình AI đã được đào tạo để đưa ra dự đoán hoặc quyết định dựa trên dữ liệu mới. Ví dụ, khi bạn tương tác với một chatbot AI, hệ thống sẽ sử dụng quá trình suy luận để đưa ra phản hồi phù hợp.

Meta Platforms đang thử nghiệm chip tự thiết kế đầu tiên để đào tạo các hệ thống AI - Ảnh: Reuters

Meta Platforms đang thử nghiệm chip tự thiết kế đầu tiên để đào tạo các hệ thống AI - Ảnh: Reuters

Các lãnh đạo Meta Platforms muốn bắt đầu sử dụng chip tự thiết kế vào năm 2026 để đào tạo AI. Đây là quá trình tính toán chuyên sâu liên quan đến việc cung cấp lượng lớn dữ liệu cho hệ thống AI để "dạy" nó cách thực hiện các tác vụ.

Giống như chip suy luận, mục tiêu của chip đào tạo là bắt đầu với các hệ thống đề xuất và sau đó sử dụng nó cho sản phẩm AI tạo sinh như chatbot Meta AI, theo các lãnh đạo công ty.

"Chúng tôi đang nghiên cứu cách thực hiện đào tạo cho hệ thống đề xuất, sau đó là cách đào tạo và suy luận cho AI tạo sinh", Chris Cox, Giám đốc Sản phẩm của Meta Platforms, nói tại hội nghị công nghệ, truyền thông và viễn thông Morgan Stanley đầu tháng 3.

Trước đây, Meta Platforms đã hủy bỏ một chip suy luận tùy chỉnh nội bộ sau khi nó thất bại trong đợt triển khai thử nghiệm quy mô nhỏ tương tự đang thực hiện cho chip đào tạo. Kết quả là công ty phải đảo ngược hướng đi và đặt mua nhiều tỉ USD GPU Nvidia vào năm 2022.

Kể từ đó, công ty truyền thông xã hội này vẫn là một trong những khách hàng lớn nhất của Nvidia, tích lũy kho GPU để đào tạo các mô hình AI, gồm cả các hệ thống đề xuất và quảng cáo cũng như hàng loạt mô hình nền tảng Llama. Các đơn vị này cũng thực hiện suy luận cho hơn 3 tỉ người sử dụng ứng dụng của Meta Platforms mỗi ngày.

Giá trị của những GPU này đã bị đặt dấu hỏi trong năm nay khi các nhà nghiên cứu AI ngày càng bày tỏ nghi ngờ về việc liệu có thể đạt được bao nhiêu tiến bộ nữa bằng cách tiếp tục mở rộng quy mô các mô hình ngôn ngữ lớn thông qua thêm ngày càng nhiều dữ liệu và sức mạnh tính toán.

Sự nghi ngờ này được củng cố do công ty khởi nghiệp DeepSeek (Trung Quốc) ra mắt V3 và R1, hai mô hình AI nguồn mở có hiệu suất cao với chi phí đào tạo thấp. V3 và R1 được tối ưu hóa hiệu quả tính toán bằng cách dựa nhiều hơn vào suy luận so với hầu hết mô hình hiện có.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/giam-doc-cong-nghe-meta-danh-gia-vi-the-cua-google-microsoft-amazon-trong-cuoc-dua-ai-230988.html
Zalo