Thêm cảnh báo về AI
Vào một lúc nào đó, chúng ta sẽ phát triển được AI thông minh hơn con người. Và đó là một suy nghĩ rất đáng sợ
Nhà khoa học máy tính Geoffrey Hinton, đồng chủ nhân giải Nobel Vật lý năm 2024, vừa cảnh báo có 10%-20% nguy cơ công nghệ trí tuệ nhân tạo (AI) dẫn đến sự tuyệt chủng của loài người trong 3 thập kỷ tới.
Ông Hinton, mang 2 quốc tịch Anh và Canada, được mệnh danh là "cha đỡ đầu" của AI. Trước đó, ông cảnh báo có 10% khả năng công nghệ này gây ra hậu quả thảm khốc cho nhân loại, ngụ ý đến nguy cơ con người phát triển AI quá nhanh chóng mà không có đủ biện pháp an toàn để kiểm soát nó.
Vào năm ngoái, ông Hinton thu hút nhiều chú ý khi rời bỏ vị trí của mình tại hãng Google (Mỹ) và phát biểu cởi mở hơn về các rủi ro liên quan đến sự phát triển không kiểm soát của AI, trong đó có nỗi lo công nghệ này bị kẻ xấu lợi dụng. Mối quan ngại chính của các nhà hoạt động vì sự an toàn của AI là việc tạo ra trí tuệ nhân tạo tổng quát hoặc các hệ thống thông minh hơn con người, có thể dẫn đến nguy cơ công nghệ này thoát khỏi sự kiểm soát của con người và trở thành mối đe dọa tồn vong.
"Hiện tại, hầu hết chuyên gia trong lĩnh vực này đều nghĩ rằng vào một lúc nào đó, có lẽ trong vòng 20 năm tới, chúng ta sẽ phát triển được AI thông minh hơn con người. Và đó là một suy nghĩ rất đáng sợ" - ông Hinton cảnh báo. Theo trang The Guardian hôm 27-12, chuyên gia này cho rằng chỉ dựa vào động lực lợi nhuận của các đại gia công nghệ là không đủ để bảo đảm họ phát triển AI an toàn. "Điều duy nhất buộc các công ty lớn nghiên cứu nhiều hơn về an toàn là quy định của chính phủ" - ông Hinton nhấn mạnh.
Ngoài giải Nobel Vật lý năm 2024 nhờ công trình liên quan đến mạng nơ-ron nhân tạo, ông Hinton còn thuộc nhóm 3 nhà khoa học giành giải thưởng ACM AM Turing, tương đương giải Nobel trong lĩnh vực khoa học máy tính, hồi năm 2018. Tuy nhiên, ông Yann LeCun, nhà khoa học trưởng về AI tại hãng Meta (Mỹ) và thuộc nhóm giành giải thưởng ACM AM Turing nói trên, lại cho rằng AI "thực sự có thể cứu nhân loại khỏi sự diệt vong".