Google điều chỉnh nguyên tắc sử dụng AI phát triển vũ khí

Google đã có một thay đổi lớn trong chính sách về trí tuệ nhân tạo (AI), loại bỏ các hạn chế trước đây đối với việc sử dụng AI trong phát triển vũ khí và công cụ giám sát.

Năm 2018, Google đặt ra các nguyên tắc AI nhằm phản hồi chỉ trích về việc tham gia vào dự án quân sự của Bộ Quốc phòng Mỹ, trong đó AI được dùng để xử lý dữ liệu và xác định mục tiêu trong chiến đấu. Khi đó, Google cam kết không phát triển AI phục vụ vũ khí hoặc giám sát vi phạm các chuẩn mực quốc tế.

Tuy nhiên, trong phiên bản mới nhất, những cam kết này đã bị loại bỏ. Thay vào đó, CEO của Google DeepMind Demis Hassabis, cùng giám đốc điều hành cấp cao James Manyika giới thiệu một bộ "nguyên tắc cốt lõi" mới.

Những nguyên tắc này nhấn mạnh vào đổi mới, hợp tác và khẳng định rằng "các nền dân chủ nên dẫn đầu trong phát triển AI, dựa trên các giá trị như tự do, bình đẳng và tôn trọng nhân quyền".

Theo The Washington Post, Google đã hợp tác với quân đội Israel từ những tuần đầu của cuộc xung đột tại Dải Gaza, cạnh tranh với Amazon để cung cấp dịch vụ AI. Sau cuộc tấn công của Hamas vào Israel vào tháng 10/2023, bộ phận đám mây của Google đã nhanh chóng hỗ trợ Lực lượng Phòng vệ Israel (IDF) tiếp cận các công cụ AI, dù công ty từng tuyên bố hạn chế hợp tác với chính phủ trong lĩnh vực quân sự.

Việc Google thay đổi chính sách diễn ra trong bối cảnh ngày càng có nhiều lo ngại về nguy cơ AI đối với nhân loại. Geoffrey Hinton, một trong những cha đẻ của AI và người nhận giải Nobel Vật lý 2024, từng cảnh báo rằng AI có thể dẫn đến sự diệt vong của con người trong vòng 30 năm tới, với xác suất lên tới 20%.

Hinton lo ngại rằng AI có thể vượt qua trí thông minh con người, thoát khỏi tầm kiểm soát và gây ra hậu quả thảm khốc. Ông kêu gọi đầu tư mạnh hơn vào an toàn AI, đảm bảo công nghệ này được sử dụng có đạo đức và phát triển các biện pháp bảo vệ chủ động.

Xuân Minh

Nguồn SK&ĐS: https://suckhoedoisong.vn/google-dieu-chinh-nguyen-tac-su-dung-ai-phat-trien-vu-khi-169250206083406473.htm
Zalo