Phân loại hệ thống AI theo mức độ rủi ro
Việt Nam đang tiến gần tới cột mốc trở thành quốc gia/khu vực thứ hai trên thế giới (sau Liên minh châu Âu - EU) có quy định chung về quản lý hệ thống trí tuệ nhân tạo (AI) theo mức độ rủi ro khi dự thảo Luật Công nghiệp công nghệ số dự kiến được Quốc hội thông qua tại kỳ họp lần này.
Cách tiếp cận phân loại hệ thống AI dựa trên rủi ro của Việt Nam rất tương đồng với cách tiếp cận quản trị AI phổ biến trên thế giới. Các quốc gia phát triển như Nhật Bản, Singapore, Australia hay Canada - dù chưa có một đạo luật chính thức, song đều xây dựng các khung nguyên tắc quản lý AI dựa trên rủi ro.
Tuy nhiên, khi đi vào chi tiết, việc phân loại hệ thống AI còn gây ra nhiều băn khoăn. Theo dự thảo Luật Công nghiệp công nghệ số, hệ thống AI sẽ được phân thành 3 loại: hệ thống AI rủi ro cao, hệ thống AI tác động lớn và hệ thống AI khác.

Quốc hội nghe trình bày Báo cáo giải trình, tiếp thu, chỉnh lý dự thảo Luật Công nghiệp công nghệ số tại Kỳ họp thứ Chín
Đối với hệ thống AI rủi ro cao, có thể thấy cơ quan soạn thảo đưa ra hai nguyên tắc gồm các lợi ích được bảo vệ (thường được biết đến như khách thể trong lĩnh vực pháp luật) là sức khỏe con người, quyền và lợi ích của con người, lợi ích công cộng và trật tự, an toàn xã hội và ngưỡng rủi ro là nghiêm trọng. Điều này phù hợp về mặt lý thuyết phân loại rủi ro, tạo ra sự linh hoạt cho quy định pháp luật trong bối cảnh thay đổi nhanh chóng của công nghệ. Tuy nhiên, nguy cơ gây ra khó khăn trong thực thi vẫn hiện hữu bởi thiếu hướng dẫn hay tiêu chí cụ thể.
Do đó, cơ quan soạn thảo nên cân nhắc bổ sung quy định về tiêu chí xác định hệ thống AI rủi ro cao; trong đó cần làm rõ quyền và lợi ích của con người, lợi ích công cộng, trật tự và an toàn xã hội là gì, liệu các giá trị cụ thể như pháp quyền xã hội chủ nghĩa, sự ổn định hệ thống chính trị có nên được bổ sung trong bối cảnh Việt Nam hay không. Chẳng hạn, đối với một quốc gia đa dạng sắc tộc như Australia, quyền lợi của các nhóm văn hóa được coi là một giá trị quan trọng trong việc xác định hệ thống AI rủi ro cao. Bên cạnh đó, cơ quan soạn thảo cần làm rõ ngưỡng rủi ro nghiêm trọng được đo đếm bằng những cách nào, chẳng hạn dựa vào khả năng hoặc xác suất xảy ra, số lượng người bị tác động, phạm vi bị tác động.
Đối với hệ thống AI tác động lớn, cơ sở để xác định là sử dụng đa mục đích, có số lượng người sử dụng lớn, số lượng tham số lớn, khối lượng dữ liệu lớn. Cơ quan soạn thảo dường như tham khảo cách quy định của EU đối với mô hình AI mục đích chung (GPAI). Tuy nhiên có điểm khác biệt lớn giữa EU và Việt Nam, EU quy định GPAI có khả năng tác động lớn là khi có lượng tính toán tích lũy lớn hơn 10^25 và tại phụ lục đưa ra các tiêu chí để xác định rủi ro gồm số lượng người dùng, số lượng tham số, khối lượng tính toán. Trong khi đó, Việt Nam chỉ đưa ra số lượng tham số, khối lượng dữ liệu, số lượng người dùng lớn, không rõ mức độ lớn này được xác định bằng cách nào hay đạt ngưỡng bao nhiêu.
Bên cạnh đó, quy định đối với GPAI của EU cũng đối mặt với chỉ trích vì không nhất quán với cách tiếp cận quản lý AI dựa trên rủi ro. Trên thực tế, mô hình GPAI được sử dụng vào nhiều lĩnh vực, mục đích khác nhau với mức độ rủi ro khác nhau. Chẳng hạn, các mô hình ngôn ngữ lớn (LLM) có thể được sử dụng cho nhiều mục đích khác nhau, và rủi ro cũng thay đổi tùy theo mục đích sử dụng. Ví dụ, nếu sử dụng ChatGPT để viết một bài luận thì có thể rất ít rủi ro, trong khi sử dụng ChatGPT để đưa ra tư vấn y tế thì có thể gây ra rủi ro cao.
Ngoài ra, dự thảo Luật Công nghiệp công nghệ số đưa ra quy định về hệ thống AI khác. Quy định điều khoản “quét” như vậy bảo đảm tất cả các hệ thống AI đều được điều chỉnh bởi luật. Tuy nhiên, việc thiếu tiêu chí xác định hệ thống AI rủi ro cao và hệ thống AI tác động lớn kết hợp với một điều khoản quét về hệ thống AI khác dẫn đến đối tượng chịu tác động không rõ mình đang triển khai, cung cấp hệ thống AI loại nào, và băn khoăn về việc hệ thống AI khác thì nghĩa vụ sẽ khác gì hệ thống rủi ro cao hay tác động lớn.
Do đó, cơ quan soạn thảo nên cân nhắc bổ sung quy định giao Chính phủ ban hành tiêu chí phân loại hệ thống AI dựa trên rủi ro. Đồng thời, cần cân nhắc kỹ lưỡng rằng nếu lựa chọn cách tiếp cận quản trị AI dựa trên rủi ro, cơ quan soạn thảo nên thống nhất chia hệ thống AI tác động lớn theo mức độ rủi ro, loại bỏ hệ thống AI tác động lớn.