Luật Trí tuệ nhân tạo: Quản lý 'đầu ra' để an toàn, không cản trở đổi mới

Luật Trí tuệ nhân tạo (AI) xác lập nguyên tắc chỉ điều chỉnh đầu ra và hành vi sử dụng, không can thiệp vào mô hình, qua đó bảo đảm không cản trở đổi mới sáng tạo, đồng thời đặt trọng tâm vào an toàn, minh bạch và trách nhiệm giải trình.

Luật Trí tuệ nhân tạo: Chỉ điều chỉnh đầu ra và hành vi sử dụng trí tuệ nhân tạo, không cản trở đổi mới sáng tạo.

Luật Trí tuệ nhân tạo: Chỉ điều chỉnh đầu ra và hành vi sử dụng trí tuệ nhân tạo, không cản trở đổi mới sáng tạo.

Tiếp cận quản lý dựa trên rủi ro, hài hòa giữa an toàn và phát triển

Quốc hội vừa thông qua Luật Trí tuệ nhân tạo (AI) với 429/434 đại biểu tham gia biểu quyết tán thành (90,70%), bổ sung một nền tảng thể chế quan trọng cho công nghệ mới nổi. Được biết, quá trình xây dựng Luật được đặt trong bối cảnh tham khảo kinh nghiệm quốc tế. Một số mô hình quản lý thiên về kiểm soát chặt, chú trọng an toàn; một số mô hình lại ưu tiên thúc đẩy phát triển; có mô hình kết hợp cả an toàn và phát triển ở các mức độ khác nhau. Trên cơ sở đó, Luật lựa chọn cách tiếp cận kết hợp có chọn lọc: nhấn mạnh an toàn ở mức phù hợp nhưng hạn chế thủ tục, đồng thời duy trì các chính sách thúc đẩy phát triển để hình thành năng lực AI, nâng cao sức cạnh tranh quốc gia.

Một quyết định quan trọng là Luật theo hướng “luật khung” gọn, quy định nguyên tắc và khuôn khổ quản lý nhà nước; các nội dung kỹ thuật sẽ tiếp tục được quy định tại nghị định. Luật khẳng định không điều chỉnh mô hình AI, bởi mô hình là sáng tạo nội bộ của doanh nghiệp. Trọng tâm điều chỉnh là đầu ra, hành vi sử dụng và rủi ro AI gây ra đối với xã hội. Theo hướng quản lý dựa trên rủi ro, Luật thiết kế phân tầng rõ ràng: giảm từ bốn xuống ba mức rủi ro (thấp, trung bình, cao), kèm một điều về các hành vi bị cấm.

Với hệ thống AI rủi ro cao, Luật lựa chọn cơ chế quản trị theo hướng “tối thiểu trước triển khai – mạnh hậu kiểm”. Doanh nghiệp tự chuẩn bị hồ sơ đánh giá an toàn nhưng không phải xin phép; hồ sơ được yêu cầu xuất trình khi cơ quan quản lý thực hiện hậu kiểm. Cách tiếp cận này nhằm giảm thủ tục hành chính, vẫn duy trì công cụ kiểm soát rủi ro dựa trên trách nhiệm tự đánh giá và khả năng kiểm tra, thanh tra sau.

Về bồi thường thiệt hại, Luật bỏ cơ chế phạt theo doanh thu và chuyển sang nguyên tắc bồi thường toàn bộ thiệt hại, đồng thời cho phép áp dụng chế tài đủ mạnh như đình chỉ cung cấp dịch vụ. Đây là hướng tiếp cận đặt trách nhiệm vào hậu quả và nghĩa vụ khắc phục, phù hợp với yêu cầu bảo vệ người dân và kỷ cương thị trường.

Một điểm đáng chú ý: Luật không xếp hệ thống AI rủi ro cao vào nhóm “nguồn nguy hiểm cao độ”. Lập luận là rủi ro chủ yếu phát sinh từ quyết định của phần mềm và tác động xã hội, không phải rủi ro vật lý tự thân như xe cơ giới hay chất nổ. Tuy vậy, để tăng bảo vệ người dân, Luật bổ sung cơ chế bồi thường nghiêm ngặt, quy định trách nhiệm bồi thường cho các chủ thể liên quan ngay cả khi không có lỗi trong các trường hợp theo quy định.

 Luật được Quốc hội thông qua với kết quả: 429/434 đại biểu tham gia biểu quyết tán thành, chiếm 90,70%.

Luật được Quốc hội thông qua với kết quả: 429/434 đại biểu tham gia biểu quyết tán thành, chiếm 90,70%.

Lấy con người làm trung tâm: an toàn, minh bạch, trách nhiệm

Luật AI bao quát từ nguyên tắc phát triển, chính sách của Nhà nước, cơ chế phân loại-quản lý rủi ro, yêu cầu minh bạch, xử lý sự cố, đến đánh giá sự phù hợp đối với hệ thống AI rủi ro cao. Trọng tâm xuyên suốt là lấy con người làm trung tâm: duy trì kiểm soát của con người đối với các quyết định quan trọng, hạn chế thiên lệch và phân biệt đối xử; khuyến khích phát triển AI xanh, bền vững và bao trùm.

Luật cũng đưa ra các quy định bảo vệ xã hội trước nguy cơ lạm dụng AI, trong đó có danh mục hành vi bị cấm như dùng AI để giả mạo, thao túng nhận thức, thu thập-xử lý dữ liệu trái phép hoặc làm sai lệch thông tin thuộc diện phải minh bạch.

Trong trường hợp xảy ra sự cố nghiêm trọng, các chủ thể liên quan phải ghi nhận, thông báo và khắc phục kịp thời; cơ quan quản lý có thể yêu cầu tạm dừng hoặc thu hồi hệ thống theo quy định để bảo đảm an toàn cho người dân và trật tự xã hội.

Để tăng tính minh bạch và thuận lợi cho quản lý, Luật thiết lập Cổng thông tin điện tử một cửa về AI và Cơ sở dữ liệu quốc gia về hệ thống AI, phục vụ đăng ký thử nghiệm, phân loại rủi ro, báo cáo sự cố, đồng thời tạo nền tảng dữ liệu cho công tác hậu kiểm.

Song song với quản lý rủi ro, Luật đặt ra các chính sách thúc đẩy phát triển và đổi mới sáng tạo trong AI. Luật cũng xác định hạ tầng AI quốc gia là hạ tầng chiến lược, phát triển theo mô hình thống nhất-mở-an toàn; khuyến khích hợp tác công tư và sự tham gia của doanh nghiệp, viện, trường và tổ chức xã hội.

Luật AI có hiệu lực từ ngày 01/3/2026, thể hiện rõ định hướng: phát triển mạnh mẽ nhưng phải an toàn; đổi mới nhưng phải có trách nhiệm; công nghệ phải phục vụ con người.

MAI HÀ

Nguồn Nhân Dân: https://nhandan.vn/luat-tri-tue-nhan-tao-quan-ly-dau-ra-de-an-toan-khong-can-tro-doi-moi-post931902.html