Cấp thiết luật hóa vấn đề trí tuệ nhân tạo
Theo một thống kê được công bố tại một hội thảo tổ chức mới đây, hiện có gần 170 nghìn DN Việt Nam có ứng dụng trí tuệ nhân tạo (AI), chiếm khoảng 18% tổng số DN; và thị trường chatbot (chương trình máy tính có thể trò chuyện với con người bằng văn bản hoặc giọng nói, được thiết kế mô phỏng cuộc trò chuyện tự nhiên) được dự báo tăng gấp 6 lần trong 10 năm tới.
Chỉ trong thời gian rất ngắn, AI đã có những bước phát triển mạnh mẽ. Và cũng từ đây, một số vấn đề được đặt ra như có cần dán nhãn để phân biệt rõ sản phẩm do AI hay do con người tạo ra? Nếu AI gây thiệt hại thì trách nhiệm bồi thường như thế nào? Nếu AI vi phạm bản quyền thì xử lý ra sao? Cần khuyến khích, hoặc hạn chế, hoặc không cho phép AI hoạt động trong lĩnh vực nào? Từ thực tế này, Bộ KH&CN đã gấp rút soạn thảo và đang lấy ý kiến Nhân dân với dự thảo Luật Trí tuệ nhân tạo.
Dự thảo Luật được xây dựng theo hướng tìm điểm cân bằng hợp lý giữa quản lý và khuyến khích phát triển AI, bảo đảm khả thi và tiệm cận chuẩn mực quốc tế.
Dự thảo Luật quy định mọi hoạt động liên quan đến AI phải lấy con người làm trung tâm, bảo đảm an toàn, minh bạch. AI phải phục vụ, hỗ trợ con người, không thay thế con người trong các quyết định trọng yếu, phải luôn nằm dưới sự kiểm soát, giám sát và chịu trách nhiệm cuối cùng của con người. Quản lý AI theo mức độ rủi ro, trong đó các hệ thống AI có rủi ro cao sẽ chịu sự giám sát chặt chẽ. Người dùng phải được thông báo rõ ràng khi tương tác với AI, phân biệt rõ ràng giữa nội dung do người và máy tạo ra.
Dự thảo Luật phân loại hệ thống AI thành 4 cấp độ rủi ro để áp dụng các biện pháp quản lý tương ứng. Rủi ro không chấp nhận được là các hệ thống AI có mục đích sử dụng gây tổn hại đến an ninh quốc gia, giá trị xã hội, quyền con người; bị cấm. Rủi ro cao là các hệ thống AI được sử dụng trong các lĩnh vực hoặc cho mục đích có khả năng gây tổn hại đáng kể đến tính mạng, sức khỏe, các quyền cơ bản của con người, an ninh, trật tự và các lợi ích công cộng. Rủi ro trung bình là các hệ thống AI có tương tác trực tiếp với con người hoặc tạo ra nội dung mà người sử dụng cần được biết về bản chất nhân tạo của nó. Rủi ro thấp là các hệ thống AI không thuộc các trường hợp trên.
Dự thảo Luật nghiêm cấm việc nghiên cứu, phát triển, cung cấp, triển khai, sử dụng AI trong các trường hợp: Thao túng nhận thức, hành vi con người; chấm điểm tín nhiệm xã hội với cá nhân; sử dụng hệ thống nhận diện cảm xúc tại nơi làm việc và các cơ sở giáo dục; sản xuất hoặc phổ biến nội dung do AI tạo ra có khả năng gây nguy hại trật tự, an toàn xã hội, an ninh quốc gia…
Việc kịp thời xây dựng và sớm trình Quốc hội thông qua Luật Trí tuệ nhân tạo là rất ý nghĩa và cấp thiết, tạo nền tảng pháp lý cho nghiên cứu, phát triển, ứng dụng và quản trị AI một cách an toàn, trách nhiệm, nhân văn. Mục tiêu cuối cùng là xây dựng được một đạo luật vừa kiểm soát được rủi ro, vừa thúc đẩy mạnh mẽ sự phát triển AI tại Việt Nam, góp phần đưa công nghệ phục vụ con người và phát triển bền vững.