Bổ sung các quy định hạn chế rủi ro, ảnh hưởng của trí tuệ nhân tạo đối với đời sống kinh tế- xã hội
Đóng góp ý kiến về dự án Luật Công nghiệp công nghệ số, các ĐBQH tại Tổ 5 đề nghị nghiên cứu bổ sung các quy định hạn chế rủi ro, ảnh hưởng của công nghệ trí tuệ nhân tạo đối với đời sống kinh tế- xã hội như nguyên tắc đạo đức, theo dõi hệ thống đối với từng loại hình doanh nghiệp phát triển hệ thống trí tuệ nhân tạo…
Sáng 23/11, Quốc hội thảo luận ở Tổ về dự án Luật Công nghiệp công nghệ số và dự án Luật Quản lý và đầu tư vốn nhà nước tại doanh nghiệp. Tham gia họp tại Tổ 5 gồm các Đoàn Đại biểu Quốc hội (ĐBQH) của các tỉnh: Vĩnh Phúc, Lào Cai, Quảng Nam, Kiên Giang.
Đóng góp vào dự án Luật Công nghiệp công nghệ số, đa số các ĐBQH tại Tổ 5 thống nhất cho rằng, cần phải có cơ sở pháp lý điều chỉnh về trí tuệ nhân tạo để phát triển thế mạnh, lợi thế của trí tuệ nhân tạo, đồng thời hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ trí tuệ nhân tạo. Do đó, các ĐBQH cơ bản tán thành sự cần thiết và phạm vi, mức độ quy định về các hệ thống trí tuệ trong dự thảo Luật. Tuy nhiên, các ĐBQH cũng đề nghị nghiên cứu bổ sung các quy định hạn chế rủi ro, ảnh hưởng của công nghệ trí tuệ nhân tạo đối với đời sống kinh tế- xã hội như nguyên tắc đạo đức, theo dõi hệ thống đối với từng loại hình doanh nghiệp phát triển hệ thống trí tuệ nhân tạo…
Đại biểu Sùng A Lềnh - Đoàn ĐBQH tỉnh Lào Cai quan tâm đến vấn quản lý rủi ro đối với hệ thống trí tuệ nhân tạo được quy định tại khoản 1 và khoản 2 của Điều 65. Theo đó, tại khoản 1 của dự thảo quy định “Hệ thống trí tuệ nhân tạo có khả năng gây ra những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân là hệ thống trí tuệ nhân tạo có rủi ro cao trừ trường hợp quy định tại khoản 3 Điều này.”
Tại khoản 2 dự thảo quy định “Hệ thống trí tuệ nhân tạo có khả năng tác động cao là hệ thống trí tuệ nhân tạo có phạm vi tác động lớn, số lượng người dùng lớn, lượng tính toán tích lũy sử dụng để huấn luyện lớn.”
Theo đại biểu Sùng A Lềnh, quy định tại khoản 1 và khoản 2 chưa định nghĩa rõ về “những rủi ro, tổn hại đến sức khỏe, sự an toàn, quyền và lợi ích hợp pháp của tổ chức, cá nhân”; đồng thời cũng chưa đưa ra giới hạn cụ thể về “phạm vi tác động, số lượng người dùng và lượng tính toán tích lũy để huấn luyện”. Việc quy định như thảo chưa rõ ràng, chưa phù hợp với các tiêu chuẩn quản lý trí tuệ nhân tạo đang được áp dụng trên thế giới, dễ dẫn đến việc khó triển khai thực hiện.
Đại biểu đề nghị Ban soạn thảo cần xác định rõ các tiêu chí hệ thống trí tuệ nhân tạo có rủi ro cao, hệ thống trí tuệ nhân tạo có khả năng tác động cao; hoặc giới hạn phạm vi của hệ thống trí tuệ nhân tạo có rủi ro cao ở một số hệ thống trí tuệ nhân tạo nâng cao và tiên tiến, có thể gây ra ảnh hưởng lớn.
Tại Điều 67 về Trách nhiệm các bên liên quan đến hoạt động phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo: Khoản 1 quy định về trách nhiệm của các nhà phát triển và cung cấp, triển khai hệ thống trí tuệ nhân tạo, trong đó có một số quy định như: “Đánh giá, giải thích các rủi ro an toàn của hệ thống trí tuệ nhân tạo và thiết lập cơ chế giám sát, kiểm toán kỹ thuật theo quy định của pháp luật; Kiểm tra và giám sát thường xuyên các lỗ hổng và rủi ro bảo mật, phải lưu thông tin nhật ký về quá trình phát triển và quản lý hệ thống trí tuệ nhân tạo; Thực hiện đánh giá rủi ro an toàn trước khi cung cấp hệ thống trí tuệ nhân tạo…”
Theo đại biểu Sùng A Lềnh, việc quy định như dự án Luật sẽ gây khó khăn với các nhà phát triển hệ thống trí tuệ nhân tạo, tăng nặng trách nhiệm giám sát, phát sinh thêm nhiều nhân lực và kinh tế. Đặc biệt, trong trường hợp các nhà phát triển hệ thống trí tuệ nhân tạo sử dụng công nghệ có mã nguồn mở, họ sẽ không ở vị trí phù hợp về mặt kỹ thuật để tuân thủ đầy đủ các nghĩa vụ nói trên.
Tại khoản 2 quy định nhà cung cấp, triển khai hệ thống trí tuệ nhân tạo là cá nhân, tổ chức có thẩm quyền quản lý trực tiếp đối với hệ thống trí tuệ nhân tạo. Tuy nhiên, trong dự thảo chưa có quy định về nội dung "quản lý trực tiếp đối với hệ thống trí tuệ nhân tạo". Mặt khác, tại điểm b khoản 2 quy định “Cung cấp đầy đủ thông tin của hệ thống trí tuệ nhân tạo cho người sử dụng”. Tuy nhiên, để hoàn thiện hệ thống trí tuệ nhân tạo cần rất nhiều nguồn, rất nhiều thông tin; quy định như dự thảo Luật khiến cho nhà cung cấp, triển khai không rõ những thông tin nào là thông tin cần thiết phải cung cấp.
Ngoài ra, trong dự thảo Luật cũng chưa có quy định về việc nhà cung cấp, triển khai hệ thống trí tuệ nhân tạo có quyền từ chối những yêu cầu không chính đáng hoặc mang tính quấy rối doanh nghiệp để tránh gây trở ngại, tốn thời gian, nhân lực và kinh tế.
Từ các ý kiến nêu trên, đại biểu Sùng A Lềnh đề nghị Ban soạn thảo nghiên cứu, xem xét tính khả thi của việc áp đặt các nghĩa vụ giám sát, theo dõi hệ thống đối với từng loại hình doanh nghiệp phát triển hệ thống trí tuệ nhân tạo; đặt ra các trường hợp miễn trách nhiệm đối với một số nhà phát triển hệ thống trí tuệ nhân tạo nhất định (như nhà phát triển sử dụng công nghệ mã nguồn mở). Đồng thời, có quy định rõ hơn đối với nghĩa vụ xử lý yêu cầu của người sử dụng, chẳng hạn như nhà cung cấp hệ thống trí tuệ nhân tạo có quyền xác định các cơ sở hợp lý để từ chối xử lý yêu cầu.
Xây dựng khung đạo đức trong sử dụng, ứng xử về trí tuệ nhân tạo
Đóng góp ý kiến về quản lý rủi ro trong quá trình ứng dụng trí tuệ nhân tạo, đại biểu Nguyễn Phương Tuấn – Đoàn ĐBQH tỉnh Kiên Giang cho rằng, trong thời đại ngày nay, bên cạnh những hữu ích do trí tuệ nhân tạo đem lại thì việc quản lý sự phát triển của công nghệ này là cần thiết. Trên thế giới đang có 2 cách tiếp cận quản lý đối với trí tuệ nhân tạo. Theo đó, cách tiếp cận trí tuệ nhân tạo dựa trên quản lý về rủi ro và cách tiếp cận dựa trên quyền của nhà quản lý.
Đại biểu Nguyễn Phương Tuấn đồng thuận với cách tiếp cận quản lý những rủi ro do trí tuệ nhân tạo gây ra theo phương thức của Chính phủ đề ra trong dự án Luật. Tức là sự rủi ro mà trí tuệ nhân tạo đến đâu thì quản lý chặt chẽ đến đó nhưng phải quản lý theo từng cấp độ, mức độ khác nhau. Ngoài ra, Ban soạn thảo dự án Luật cũng cần nghiên cứu xây dựng khung đạo đức trong sử dụng, ứng xử về trí tuệ nhân tạo.
Liên quan đến giải thích từ ngữ cho cụm từ “trí tuệ nhân tạo”, đại biểu Trần Văn Tiến - Đoàn ĐBQH tỉnh Vĩnh Phúc cho rằng, “trí tuệ nhân tạo là công nghệ số mô phỏng trí thông minh của con người nhằm mục đích đưa ra nội dung, dự báo, đề xuất, quyết định dựa trên tập hợp các mục tiêu do con người xác định”. Trong khi đó, theo quy định tại khoản 1 Điều 3, trí tuệ nhân tạo được xác định là công nghệ số thế hệ mới. Vì vậy, để bảo đảm thống nhất trong cách giải thích từ ngữ tại khoản 1 và khoản 10, đại biểu Trần Văn Tiến đề nghị cơ quan chủ trì soạn thảo nghiên cứu, chỉnh lý quy định tại khoản 10 theo hướng giải thích “trí tuệ nhân tạo là công nghệ số thế hệ mới mô phỏng trí thông minh của con người nhằm mục đích đưa ra nội dung, dự báo, đề xuất, quyết định dựa trên tập hợp các mục tiêu do con người xác định” (bổ sung thêm cụm từ “thế hệ mới).
Trong khuôn khổ Phiên thảo luận, các ĐBQH tại Tổ 5 còn đóng góp ý kiến vào dự án Luật Quản lý và đầu tư vốn nhà nước tại doanh nghiệp. Theo đó, các ĐBQH cơ bản tán thành với sự cần thiết ban hành Luật Quản lý và đầu tư vốn nhà nước tại doanh nghiệp thay thế Luật Quản lý, sử dụng vốn nhà nước đầu tư vào sản xuất, kinh doanh tại doanh nghiệp (Luật số 69). Quy định của dự thảo Luật sẽ góp phần thể chế hóa các quan điểm, chủ trương của Đảng về tiếp tục cơ cấu lại, đổi mới và nâng cao hiệu quả doanh nghiệp nhà nước (DNNN); đảm bảo DNNN hoạt động theo cơ chế thị trường, tôn trọng và nâng cao quyền tự chủ, tự chịu trách nhiệm của doanh nghiệp; tăng cường kiểm tra, giám sát của Nhà nước trong quản lý, đầu tư vốn tại doanh nghiệp.