Đề xuất phân loại, quản lý trí tuệ nhân tạo theo mức độ rủi ro

Sáng 21-11, tiếp tục chương trình Kỳ họp thứ mười, Quốc hội nghe tờ trình và báo cáo thẩm tra dự án Luật Trí tuệ nhân tạo.

Theo Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng, dự thảo Luật Trí tuệ nhân tạo gồm 8 chương, 36 điều. Nội dung luật kế thừa và bãi bỏ các quy định về trí tuệ nhân tạo tại Luật Công nghiệp công nghệ số số 71/2025/QH15; bổ sung các khoảng trống pháp lý để hoàn thiện pháp luật về trí tuệ nhân tạo.

 Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng trình bày tờ trình dự án Luật Trí tuệ nhân tạo. Ảnh: TRỌNG HẢI

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng trình bày tờ trình dự án Luật Trí tuệ nhân tạo. Ảnh: TRỌNG HẢI

Một trong những nội dung đáng chú ý tại dự thảo Luật Trí tuệ nhân tạo là phân loại trí tuệ nhân tạo thành 4 mức độ rủi ro và áp đặt nghĩa vụ tương ứng. Cụ thể:

Hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được là hệ thống có khả năng gây tổn hại nghiêm trọng, không thể khắc phục đối với quyền con người, an ninh quốc gia, trật tự, an toàn xã hội hoặc được sử dụng cho hành vi bị pháp luật nghiêm cấm. Hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được bị cấm phát triển, cung cấp, triển khai hoặc sử dụng dưới bất kỳ hình thức nào tại Việt Nam.

Hệ thống trí tuệ nhân tạo có rủi ro cao là hệ thống có thể gây thiệt hại đến tính mạng, sức khỏe, quyền, lợi ích hợp pháp của tổ chức, cá nhân hoặc lợi ích công cộng quan trọng khác. Hệ thống trí tuệ nhân tạo rủi ro cao phải được đánh giá sự phù hợp trước khi lưu hành, đưa vào sử dụng hoặc khi có thay đổi đáng kể trong quá trình vận hành.

Hệ thống trí tuệ nhân tạo có rủi ro trung bình là hệ thống có nguy cơ gây nhầm lẫn, thao túng hoặc lừa dối người sử dụng do không nhận biết được bản chất trí tuệ nhân tạo của hệ thống hoặc nội dung do hệ thống tạo ra.

Hệ thống trí tuệ nhân tạo có rủi ro thấp là hệ thống không thuộc các trường hợp quy định tại các khoản trên.

Đối với hệ thống trí tuệ nhân tạo rủi ro trung bình, thấp phải bảo đảm minh bạch, gắn nhãn theo quy định.

Theo dự thảo luật, nhà cung cấp phải tự phân loại hệ thống trước khi lưu hành và chịu trách nhiệm về kết quả phân loại. Đối với hệ thống rủi ro trung bình và cao, nhà cung cấp phải thông báo cho Bộ Khoa học và Công nghệ qua cổng thông tin một cửa. Cơ quan có thẩm quyền được quyền kiểm tra, đánh giá lại việc phân loại.

Quang cảnh phiên họp sáng 21-11. Ảnh: TRỌNG HẢI

Quang cảnh phiên họp sáng 21-11. Ảnh: TRỌNG HẢI

Thẩm tra dự thảo luật, theo Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội Nguyễn Thanh Hải, về phân loại và quản lý hệ thống trí tuệ nhân tạo, việc phân loại như trên cơ bản phù hợp với điều kiện Việt Nam hiện nay, dựa trên nguyên tắc khoa học, công khai, minh bạch. Khi bối cảnh, điều kiện và khả năng làm chủ công nghệ của đất nước ta thay đổi thì cách thức tiếp cận quản lý cũng có thể sẽ được nghiên cứu, điều chỉnh cho phù hợp.

Tuy nhiên, nếu coi hệ thống trí tuệ nhân tạo là một loại sản phẩm hàng hóa thì quy định này chưa thống nhất với quy định của Luật Chất lượng sản phẩm, hàng hóa phân loại sản phẩm, hàng hóa thành 3 loại (rủi ro thấp, rủi ro trung bình, rủi ro cao). Bên cạnh đó, việc phân loại theo mức độ rủi ro còn nhiều khó khăn do chưa xác định rõ tiêu chí định lượng hoặc định tính để xác định rủi ro.

Do đó, đề nghị bổ sung quy định giao Chính phủ quy định chi tiết về các mức độ rủi ro (thấp, trung bình, cao, không chấp nhận được) căn cứ vào mức độ tự chủ của hệ thống, quy mô tác động, khả năng lan truyền và nguy cơ ảnh hưởng đến quyền con người, an ninh, an toàn xã hội. Đồng thời khẩn trương xây dựng lộ trình, bộ tiêu chí định lượng, công cụ đo lường và hướng dẫn kỹ thuật để bảo đảm khả năng áp dụng và kiểm soát hiệu quả trong thực tiễn.

HOÀNG CHUNG

Nguồn QĐND: https://www.qdnd.vn/chinh-tri/tin-tuc/de-xuat-phan-loai-quan-ly-tri-tue-nhan-tao-theo-muc-do-rui-ro-1013032