'Cha đẻ AI' đoạt giải VinFuture 2024: Các nước sẽ phải hợp tác ngăn siêu AI giành quyền kiểm soát trong tương lai

Những tiến bộ nhanh chóng về trí tuệ nhân tạo (AI) đã dẫn đến cuộc chạy đua quốc tế giành quyền thống trị quân sự.

Các cường quốc đang âm thầm tích hợp AI vào quân đội của họ để giành được lợi thế chiến lược. Tuy nhiên, điều này có thể thay đổi khi AI trở nên đủ tiên tiến để gây ra mối đe dọa hiện hữu với nhân loại, theo Geoffrey Hinton - "cha đẻ AI" đoạt giải Nobel và VinFuture 2024.

"Về những rủi ro như vũ khí tự động gây sát thương, các quốc gia sẽ không hợp tác. Tất cả quốc gia lớn cung cấp vũ khí, như Mỹ, Nga, Trung Quốc, Anh, Israel và có thể là Thụy Điển, đều đang bận rộn chế tạo vũ khí tự động gây sát thương. Họ không có ý định làm chậm tiến trình này, tự điều chỉnh hoạt động của mình hoặc hợp tác với nhau để kiểm soát rủi ro", Geoffrey Hinton nói trong một hội thảo tại Viện Hàn lâm Khoa học Kỹ thuật Hoàng gia Thụy Điển.

Tuy nhiên, Geoffrey Hinton tin rằng điều đó sẽ thay đổi khi loài người cần phải chống lại mối đe dọa tiềm tàng do một dạng AI siêu thông minh gây ra.

"Khi những thứ này thông minh hơn chúng ta — điều hầu hết nhà nghiên cứu mà tôi biết đều tin rằng sẽ xảy ra, chỉ khác nhau về thời điểm sớm nhất, có thể là 5 năm hoặc 30 năm nữa, liệu chúng có chiếm quyền kiểm soát hay không và chúng ta có thể làm gì để ngăn chặn điều đó bởi đã tạo ra chúng? Chúng ta sẽ hợp tác về vấn đề này vì tất cả quốc gia đều không muốn điều này xảy ra".

Geoffrey Hinton cho biết sự hợp tác này có thể giống thời Chiến tranh Lạnh, khi Nga và Mỹ dù là đối thủ nhưng chia sẻ mục tiêu chung là tránh chiến tranh hạt nhân.

Trích dẫn những lo ngại tương tự, Giám đốc điều hành OpenAI - Sam Altman đã kêu gọi các nhà lãnh đạo thế giới thành lập "cơ quan quốc tế" để kiểm tra các mô hình AI mạnh nhất và thực hiện "việc này an toàn, hợp lý".

"Tôi nghĩ sẽ đến một thời điểm trong tương lai không xa, không đến hàng thập kỷ nữa tính từ lúc này, các hệ thống AI tiên tiến có khả năng gây ra tác hại đáng kể trên toàn cầu", Sam Altman nhận định trên podcast All-In hồi tháng 5.

Theo báo cáo của ngân hàng Goldman Sachs, đầu tư toàn cầu vào AI dự kiến sẽ đạt 200 tỉ USD trong năm 2025, với Mỹ và Trung Quốc dẫn đầu cuộc chạy đua vũ trang quân sự.

Mỹ và Trung Quốc đã bắt đầu hợp tác về các mối đe dọa hiện hữu liên quan đến AI. Vào tháng 11, tại Hội nghị thượng đỉnh Hợp tác Kinh tế châu Á - Thái Bình Dương, Tổng thống Mỹ Joe Biden và Chủ tịch Trung Quốc Tập Cận Bình đã nhất trí rằng con người, chứ không phải AI, sẽ đưa ra quyết định liên quan đến việc sử dụng công nghệ hạt nhân.

Geoffrey Hinton (cựu nhà nghiên cứu ở Google, Giám sư Đại học Toronto, Canada) là 1 trong 5 nhà khoa học chiến thắng giải thưởng chính VinFuture 2024 trị giá 3 triệu USD trong lễ trao giải diễn ra ngày 6.12 tại Hà Nội, cùng Giáo sư Yoshua Bengio (Canada), ông Jensen Huang (Giám đốc điều hành kiêm Chủ tịch Nvidia của Mỹ), Giáo sư Yann LeCun (Mỹ) và Giáo sư Fei-Fei Li (Mỹ) vì những đóng góp đột phá để thúc đẩy sự tiến bộ của học sâu.

Giải thưởng chính VinFuture 2024 được trao vì những đóng góp đột phá để thúc đẩy sự tiến bộ của học sâu, mở ra kỷ nguyên đột phá cho những đổi mới sáng tạo về công nghệ. Nhờ đó, máy móc có thể “học” từ lượng dữ liệu khổng lồ và đạt được độ chính xác đáng kinh ngạc trong các tác vụ, như nhận diện hình ảnh, xử lý ngôn ngữ tự nhiên và đưa ra quyết định.

Giáo sư Geoffrey Hinton nhận giải thưởng VinFuture 2024 hôm 6.12 ở Hà Nội - Ảnh: VinFuture

Giáo sư Geoffrey Hinton nhận giải thưởng VinFuture 2024 hôm 6.12 ở Hà Nội - Ảnh: VinFuture

Học sâu là một lĩnh vực trong AI tập trung vào việc xây dựng và huấn luyện các mô hình học máy sâu, còn được gọi là mạng nơ-ron sâu. Mục tiêu của học sâu là tự động học các đặc trưng và biểu diễn cấp cao từ dữ liệu, giúp máy tính tự động thực hiện các nhiệm vụ phức tạp mà trước đây đòi hỏi sự can thiệp của con người.

Mô hình học sâu thường được xây dựng bằng cách sử dụng nhiều lớp của các nơ-ron. Nơ-ron là các đơn vị tính toán cơ bản mô phỏng theo cách hoạt động của não người. Những mô hình này có khả năng học các biểu diễn phức tạp của dữ liệu thông qua quá trình huấn luyện trên tập dữ liệu lớn.

Học sâu đã đạt được sự chú ý lớn nhờ vào khả năng giải quyết hiệu quả nhiều vấn đề khác nhau, bao gồm nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên, nhận dạng giọng nói, dịch ngôn ngữ, phân tích dự đoán, robot và nhiều ứng dụng khác trong thực tế. Các mô hình nổi tiếng trong học sâu bao gồm Mạng nơ-ron tích chập (CNN) và Mạng nơ-ron hồi quy (RNN).

Hôm 8.10, Geoffrey Hinton đã giành giải Nobel Vật lý 2024 cùng nhà khoa học John Hopfield (Mỹ), cho những khám phá trước đó về học máy, mở đường cho sự bùng nổ của AI.

Học máy là một lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định. Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...

Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn (big data), mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.

Geoffrey Hinton từng bày tỏ một số tiếc nuối về công việc cả đời mình, từ chức tại Google vào năm ngoái để có thể tự do nói về những mối nguy hiểm của AI, đồng thời cảnh báo rằng máy tính có thể trở nên thông minh hơn con người sớm hơn dự đoán trước đây.

Phát biểu tại cuộc họp báo hôm 8.10, Geoffrey Hinton nói ông mong biết một giải pháp đơn giản để đảm bảo mọi thứ sẽ ổn, nhưng thừa nhận rằng không có điều này, đặc biệt là khi đối mặt với mối đe dọa AI có thể trở nên quá mạnh mẽ và vượt qua sự kiểm soát của con người.

Khi rời Google vào tháng 5.2023 vì lo ngại về AI, Geoffrey Hinton hối tiếc về vai trò cốt lõi mà ông đóng góp vào việc phát triển AI.

"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng AI cho mục đích xấu", Geoffrey Hinton nói với tờ The New York Times.

Việc Geoffrey Hinton rời công ty diễn ra vào thời điểm cuộc đua phát triển các sản phẩm AI giống ChatGPT của OpenAI và Bard (hiện gọi là Gemini) của Google đang nóng lên.

Có những đóng góp vào lĩnh vực AI từ nhiều thập kỷ trước và mở đường cho việc tạo ra các chatbot đó, Geoffrey Hinton nói rằng ông lo ngại công nghệ này có thể gây hại với loài người.

Ngoài ra, ông lo ngại về cuộc đua AI đang diễn ra giữa những gã khổng lồ công nghệ và đặt câu hỏi rằng liệu có quá muộn để tạm dừng lại hay không.

Sau cuộc phỏng vấn với The New York Times, Geoffrey Hinton đăng trên mạng xã hội X rằng ông rời đi để có thể "nói về sự nguy hiểm của AI mà không cần xem xét điều này tác động đến Google như thế nào", đồng thời tuyên bố công ty cũ đã hành động rất có trách nhiệm.

"Geoffrey Hinton đã tạo ra những bước đột phá quan trọng cho lĩnh vực AI và chúng tôi đánh giá cao những đóng góp của ông trong suốt thập kỷ qua tại Google", Jeff Dean, trưởng nhóm khoa học của Google, nói với trang Insider.

Theo The New York Times, Geoffrey Hinton nói rằng ông lo lắng các sản phẩm AI sẽ dẫn đến việc phổ biến thông tin, ảnh và video giả mạo trên internet, khiến công chúng không thể xác định được điều gì là đúng hay sai.

Ông nói về việc công nghệ AI có thể loại bỏ sức lao động của con người, gồm cả trợ lý luật sư, phiên dịch viên và trợ lý. Đây là mối lo ngại mà Sam Altman và các nhà phê bình khác về AI đã đưa ra.

Geoffrey Hinton là thầy của Ilya Sutskever - đồng sáng lập và cựu Giám đốc khoa học OpenAI.

Ilya Sutskever là nhà nghiên cứu nổi bật trong lĩnh vực AI, đóng góp vai trò quan trọng để OpenAI tạo ra ChatGPT, chatbot AI phổ biến đã kích hoạt cuộc đua giữa các hãng công nghệ lớn nhất thế giới. Ông từ chức Giám đốc khoa học OpenAI vào tháng 5 sau gần 1 thập kỷ làm việc, ngay sau khi công ty trình làng mô hình ngôn ngữ lớn GPT-4o.

Là một trong những thành viên hội đồng quản trị cũ bỏ phiếu sa thải Sam Altman hồi tháng 11.2023, Ilya Sutskever từng bày tỏ hối hận về quyết định này. Không lâu sau khi rời OpenAI, Ilya Sutskever thành lập Safe Superintelligence - công ty khởi nghiệp AI riêng tập trung vào vấn đề an toàn.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/cha-de-ai-doat-giai-vinfuture-2024-cac-nuoc-se-phai-hop-tac-ngan-sieu-ai-gianh-quyen-kiem-soat-trong-tuong-lai-227087.html
Zalo