CEO Nvidia: 'Còn nhiều năm nữa mới xuất hiện AI mà chúng ta hoàn toàn tin tưởng'

Jensen Huang, Giám đốc điều hành Nvidia, cho biết trí tuệ nhân tạo (AI) ngày nay không cung cấp những câu trả lời tốt nhất và vẫn còn nhiều năm nữa mới xuất hiện một AI mà chúng ta có thể 'hoàn toàn tin tưởng'.

"AI hiện tại vẫn chưa cung cấp được những câu trả lời tốt nhất có thể", ông Jensen Huang nói trong cuộc phỏng vấn tại Đại học Khoa học và Công nghệ Hồng Kông. Giám đốc điều hành Nvidia mong muốn AI đạt được mức độ đáng tin cậy cao đến mức người dùng có thể hoàn toàn tin tưởng vào câu trả lời mà không phải nghi ngờ.

"Chúng ta cần đạt được một mức độ mà khi AI đưa ra câu trả lời, người sử dụng có thể tin tưởng vào nó một cách chắc chắn. Vì vậy, tôi nghĩ rằng chúng ta còn cách xa nhiều năm nữa mới có thể làm được điều đó. Trong thời gian chờ đợi, chúng ta phải tiếp tục tăng cường khả năng tính toán của mình để tiến gần hơn đến mục tiêu này", tỷ phú 61 tuổi người Mỹ gốc Đài Loan cho hay.

Các mô hình ngôn ngữ lớn đã tiến bộ vượt bậc vài năm qua về khả năng trả lời những câu hỏi phức tạp, nhưng vẫn có những hạn chế.

Ảo giác (cung cấp câu trả lời sai hoặc hư cấu) là một vấn đề dai dẳng với các chatbot AI. OpenAI, được coi là hãng dẫn đầu cuộc đua AI, đã bị một người dẫn chương trình phát thanh kiện vào năm ngoái sau khi ChatGPT tạo ra đơn kiện pháp lý giả về anh ta.

Người phát ngôn OpenA không trả lời câu hỏi khi được đề nghị bình luận.

Một số công ty AI cũng đang phải đối mặt với tình thế tiến thoái lưỡng nan về cách cải tiến mô hình ngôn ngữ lớn mà không chỉ dựa vào việc có được lượng dữ liệu khổng lồ - nguồn tài nguyên vốn hữu hạn.

Trong cuộc phỏng vấn hôm 24.11, Jensen Huang cho biết việc đào tạo trước (đào tạo mô hình dựa trên một tập dữ liệu lớn, đa dạng trước khi phát triển nó để thực hiện một nhiệm vụ nhất định) sẽ không đủ.

"Đào tạo trước (chỉ lấy tất cả dữ liệu trên thế giới và tự động khám phá kiến thức từ đó) là không đủ. Điều này cũng giống việc đi học đại học rồi tốt nghiệp là một cột mốc rất quan trọng, song như thế vẫn chưa đủ", ông nói.

Jensen Huang: AI ngày nay không cung cấp những câu trả lời tốt nhất và thế giới vẫn còn "cách xa nhiều năm nữa" mới có được một AI mà chúng ta có thể "hoàn toàn tin tưởng" - Ảnh: Getty Images

Jensen Huang: AI ngày nay không cung cấp những câu trả lời tốt nhất và thế giới vẫn còn "cách xa nhiều năm nữa" mới có được một AI mà chúng ta có thể "hoàn toàn tin tưởng" - Ảnh: Getty Images

Cuối tháng 10, Jensen Huang dự đoán AI sẽ làm một số công việc tốt hơn gấp 1.000 lần nhưng sẽ không thay thế hoàn toàn con người thực hiện những vai trò đó.

"Ngay lúc này, AI không có khả năng làm được những gì chúng ta đang làm. Tùy thuộc vào công việc chúng ta làm, AI trong tương lai sẽ có thể làm 20% công việc của chúng ta tốt hơn gấp 1.000 lần. Với một số người, AI có thể làm 50% công việc của họ tốt hơn gấp 1.000 lần. Song không có việc nào mà AI có thể làm toàn bộ", Jensen Huang phát biểu tại Hội nghị thượng đỉnh AI của Nvidia tại thành phố Mumbai (Ấn Độ).

Khi được hỏi liệu có nghĩ AI sẽ thay thế công việc của mình không, Giám đốc điều hành Nvidia trả lời: "Chắc chắn là không".

Thay vào đó, tỷ phú này nói ông thấy cơ hội cho lực lượng lao động sử dụng AI để hoàn thành nhiệm vụ và đẩy nhanh quy trình làm việc của họ. Jensen Huang hình dung ra một tương lai mà người lao động sẽ áp dụng AI như "trợ lý" để tự động hóa công việc của họ.

"Mối đe dọa thực sự sẽ không phải là AI thay thế chúng ta, mà có khả năng người khác sẽ sử dụng AI để tự động hóa 20% công việc đó và chiếm lấy vị trí của bạn", Jensen Huang nói.

Dù có tiềm năng to lớn trong việc cải thiện năng suất tại nơi làm việc, AI gây lo ngại rằng nó có thể làm xáo trộn thị trường lao động bằng cách buộc nhiều người phải chuyển việc những năm tới.

AI có thể dẫn đến "12 triệu lần chuyển đổi nghề nghiệp" vào năm 2030, theo Kweilin Ellingrud - đối tác của công ty tư vấn quản lý toàn cầu McKinsey.

Vào năm 2023, ngân hàng đầu tư đa quốc gia Goldman Sachs từng đưa ra báo cáo dự đoán rằng AI có thể thay thế khoảng 300 triệu nhân viên ở Mỹ và châu Âu. Báo cáo cũng nêu rõ tiềm năng của AI trong việc tạo ra việc làm mới và thúc đẩy năng suất lao động cao hơn.

OpenAI và nhiều công ty tìm cách mới giúp AI thông minh hơn khi phương pháp hiện tại gặp hạn chế

OpenAI cùng các công ty AI khác đang tìm cách vượt qua những sự chậm trễ và thách thức không ngờ trong quá trình tạo ra mô hình ngôn ngữ ngày càng lớn hơn, bằng cách phát triển kỹ thuật đào tạo sử dụng phương pháp giống con người hơn để các thuật toán có thể "suy luận".

Hàng chục nhà khoa học, nhà nghiên cứu và nhà đầu tư AI nói với Reuters rằng họ tin rằng những kỹ thuật này, vốn là nền tảng cho mô hình ngôn ngữ lớn o1 được OpenAI phát hành gần đây, có thể định hình lại cuộc đua AI và tác động đến các loại tài nguyên mà một số công ty đòi hỏi ngày càng cao, từ năng lượng đến chip.

Sau khi OpenAI trình làng chatbot ChatGPT cách đây hai năm, các hãng công nghệ (được hưởng lợi rất lớn từ cơn sốt AI) cho rằng việc bổ sung dữ liệu và sức mạnh tính toán sẽ dẫn đến những mô hình AI ngày càng cải tiến. Song hiện tại, một số nhà khoa học AI nổi tiếng nhất đang lên tiếng về những hạn chế của triết lý "càng lớn càng tốt" này.

Ilya Sutskever, đồng sáng lập OpenAI và Safe Superintelligence, gần đây nói với Reuters rằng kết quả từ việc mở rộng quy mô tiền đào tạo (giai đoạn đào tạo mô hình AI sử dụng lượng lớn dữ liệu chưa được gắn nhãn để hiểu các mẫu và cấu trúc ngôn ngữ) đã đạt đến giới hạn.

Ilya Sutskever, cựu Giám đốc khoa học OpenAI, là người ủng hộ sớm cho việc đạt được những bước tiến vượt bậc trong AI tạo sinh thông qua việc sử dụng nhiều dữ liệu và sức mạnh tính toán hơn trong giai đoạn tiền đào tạo, điều này cuối cùng đã tạo ra ChatGPT. Ilya Sutskever rời OpenAI hồi tháng 5 để thành lập Safe Superintelligence.

"Những năm 2010 là thời đại của việc mở rộng quy mô, giờ đây chúng ta quay trở lại thời đại của sự ngạc nhiên và khám phá một lần nữa. Nhiều người đang tìm kiếm điều mới mẻ tiếp theo. Việc mở rộng đúng hướng quan trọng hơn bao giờ hết", ông nhấn mạnh.

Ilya Sutskever từ chối chia sẻ thêm chi tiết về cách đội ngũ của ông giải quyết vấn đề này, ngoài việc cho biết SSI đang nghiên cứu một phương pháp tiếp cận thay thế để mở rộng quy mô tiền đào tạo.

Đằng sau hậu trường, nhà nghiên cứu tại các phòng thí nghiệm AI lớn đã gặp phải sự chậm trễ và kết quả đáng thất vọng trong cuộc đua tung ra mô hình ngôn ngữ lớn vượt trội hơn GPT-4 (gần hai năm tuổi) của OpenAI, theo ba nguồn tin quen thuộc với các vấn đề nội bộ.

Việc "chạy đào tạo" cho các mô hình lớn có thể tốn hàng chục triệu USD do phải dùng cùng lúc hàng trăm chip AI. Điều này dễ gặp trục trặc do phần cứng phức tạp, các nhà nghiên cứu có thể không biết hiệu suất cuối cùng của mô hình cho đến khi kết thúc quá trình "chạy đào tạo", có thể mất nhiều tháng.

Một vấn đề khác là các mô hình ngôn ngữ lớn chiếm lượng lớn dữ liệu và gần như cạn kiệt dữ liệu dễ truy cập trên thế giới. Tình trạng thiếu điện cũng cản trở các lần "chạy đào tạo", vì quá trình này cần rất nhiều năng lượng.

Để vượt qua những thách thức đó, các nhà nghiên cứu đang khám phá test-time compute, kỹ thuật cải thiện các mô hình AI hiện có trong giai đoạn được gọi là "suy luận" hoặc khi mô hình đang được sử dụng. Ví dụ, thay vì chọn ngay một câu trả lời duy nhất, mô hình AI có thể tạo và đánh giá nhiều khả năng cùng lúc, cuối cùng chọn cách tối ưu.

Phương pháp này cho phép các mô hình AI dành nhiều sức mạnh xử lý hơn cho nhiệm vụ phức tạp như vấn đề toán học, lập trình, hoặc hoạt động đòi hỏi lý luận và ra quyết định giống con người.

"Hóa ra chỉ cần để bot suy nghĩ trong 20 giây khi chơi một ván poker cũng đem lại hiệu suất tương đương với việc mở rộng mô hình lên 100.000 lần và đào tạo nó lâu gấp 100.000 lần", Noam Brown, nhà nghiên cứu tại OpenAI, nói tại hội nghị TED AI ở thành phố San Francisco (Mỹ) tháng trước.

OpenAI đã áp dụng kỹ thuật này trong mô hình ngôn ngữ lớn o1.

Mô hình o1 có thể "suy nghĩ" về các vấn đề theo nhiều bước, tương tự lý luận của con người. Nó cũng sử dụng dữ liệu và phản hồi được tuyển chọn từ các tiến sĩ và chuyên gia trong ngành. Bí quyết của o1 là bộ đào tạo khác được thực hiện trên các mô hình nền tảng, chẳng hạn GPT-4. OpenAI có kế hoạch áp dụng kỹ thuật này với nhiều mô hình nền tảng lớn hơn.

Theo OpenAI, o1 vượt trội hơn mô hình ngôn ngữ lớn khác trong các nhiệm vụ nặng về mặt lý luận ở lĩnh vực khoa học, lập trình và toán học.

Nhà nghiên cứu tại các phòng thí nghiệm AI hàng đầu khác, từ Anthropic, xAI và Google DeepMind, đã làm việc để phát triển phiên bản kỹ thuật của riêng họ, theo 5 người quen thuộc với những nỗ lực này.

"Chúng tôi thấy có rất nhiều thứ dễ thực hiện để cải thiện các mô hình AI nhanh chóng. Đến khi mọi người bắt kịp, chúng tôi sẽ cố gắng đi trước ba bước nữa", Kevin Weil, Giám đốc sản phẩm OpenAI, nói tại một hội nghị công nghệ vào tháng 10.

Google và xAI không phản hồi câu hỏi của Reuters, còn Anthropic chưa bình luận ngay lập tức.

Những tác động này có thể làm thay đổi cục diện cạnh tranh trong thị trường phần cứng AI, vốn bị chi phối bởi nhu cầu lớn về chip AI của Nvidia.

Các nhà đầu tư mạo hiểm nổi tiếng, từ Sequoia đến Andreessen Horowitz, đã đổ hàng tỉ USD để tài trợ cho quá trình phát triển tốn kém mô hình AI tại nhiều phòng thí nghiệm, gồm cả OpenAI và xAI. Họ đang chú ý đến sự chuyển đổi này và cân nhắc tác động đến các khoản đầu tư đắt đỏ của mình.

"Sự thay đổi này sẽ đưa chúng ta từ một thế giới của các cụm đào tạo trước khổng lồ sang các đám mây suy luận, là những máy chủ phân tán dựa trên đám mây để suy luận", Sonya Huang, đối tác tại công ty đầu tư mạo hiểm nổi tiếng Sequoia Capital, nói với Reuters.

Nhu cầu với chip AI của Nvidia, vốn là công nghệ tiên tiến nhất, đã thúc đẩy họ vươn lên trở thành công ty có giá trị nhất thế giới, vượt qua Apple. Không giống chip đào tạo mà Nvidia đang thống trị, công ty Mỹ này có thể phải đối mặt với nhiều sự cạnh tranh hơn trên thị trường suy luận.

Khi được hỏi về tác động có thể xảy ra liên quan nhu cầu với các sản phẩm của mình, Nvidia đã chỉ ra các bài thuyết trình gần đây về tầm quan trọng của kỹ thuật đằng sau mô hình o1. Jensen Huang nói về nhu cầu ngày càng tăng với việc sử dụng chip AI của công ty để suy luận.

"Chúng tôi đã phát hiện ra một quy luật mở rộng thứ hai và đây là quy luật mở rộng tại thời điểm suy luận... Tất cả những yếu tố này đã dẫn đến nhu cầu về Blackwell trở nên cực kỳ cao", Jensen Huang nói vào tháng 10 tại một hội nghị ở Ấn Độ, ám chỉ đến dòng chip AI mới nhất của công ty.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/ceo-nvidia-con-nhieu-nam-nua-moi-xuat-hien-ai-ma-chung-ta-hoan-toan-tin-tuong-226403.html
Zalo