AI như 'đứa trẻ', sử dụng phải có trách nhiệm
Thảo luận tại hội trường Quốc hội về dự án Luật Trí tuệ nhân tạo (AI), đại biểu Nguyễn Văn Cảnh (thành viên đoàn ĐBQH tỉnh Gia Lai) nhấn mạnh cần có những quy định cụ thể về trách nhiệm của nhà cung cấp sản phẩm có ứng dụng AI để đảm bảo quyền lợi của người tiêu dùng.
Đại biểu (ĐB) Nguyễn Văn Cảnh bày tỏ tán thành các chủ trương, chính sách nhằm kiến tạo môi trường thuận lợi cho sự phát triển của trí tuệ nhân tạo (AI) và dữ liệu. Đây là những yếu tố then chốt để gia tăng sức cạnh tranh và củng cố vị thế quốc gia trong kỷ nguyên mới.
Tuy nhiên, sự phát triển nhanh chóng của công nghệ này đòi hỏi chúng ta phải cân bằng giữa việc thử nghiệm và bảo vệ tối đa quyền lợi người tiêu dùng, đặc biệt đối với những sản phẩm AI có nguy cơ ảnh hưởng đến an toàn, tính mạng của người dân.

ĐB Nguyễn Văn Cảnh đề xuất quy định giữ vững niềm tin để góp phần khuyến khích người dân sử dụng sản phẩm AI. Ảnh: Đoàn ĐBQH tỉnh
Theo ĐB Cảnh, một quốc gia đưa ra quy chuẩn trách nhiệm cao sẽ đồng thời thúc đẩy chất lượng sản phẩm được tạo ra. Nếu nâng cao rõ ràng trách nhiệm của nhà cung cấp và nhà triển khai, chúng ta sẽ có những sản phẩm AI chất lượng, có khả năng cạnh tranh quốc tế.
ĐB Nguyễn Văn Cảnh đồng tình với quan điểm của ĐB Trần Văn Lâm (thành viên đoàn ĐBQH tỉnh Bắc Ninh) khi so sánh AI như một “đứa trẻ”. Khi đứa trẻ gây ra hậu quả, trách nhiệm bồi thường thuộc về cha mẹ. Việc xác định trách nhiệm rõ ràng sẽ tăng cường sự cẩn trọng của nhà cung cấp.
Do đó, ĐB Cảnh đề nghị bổ sung một khoản vào Điều 28 (Xử lý vi phạm và trách nhiệm bồi thường thiệt hại), với nội dung nhấn mạnh nguyên tắc sau: “Trường hợp hàng hóa, dịch vụ có hỗ trợ hệ thống AI được cung cấp cho người dùng là cá nhân, nếu không có sự thỏa thuận riêng của bên cung cấp và người dùng về hệ quả của việc sử dụng, khi phát sinh thiệt hại, việc bồi thường sẽ được thực hiện theo pháp luật áp dụng đối với hàng hóa, dịch vụ không có hỗ trợ của AI”.
Quy định này đảm bảo sự công bằng và bảo vệ người tiêu dùng trong các giao dịch phổ thông, đồng thời giữ vững niềm tin để khuyến khích người dân sử dụng sản phẩm AI.
Khoản 2, Điều 9 (Phân loại và thông báo hệ thống trí tuệ nhân tạo), quy định: Bên triển khai được kế thừa kết quả phân loại của nhà cung cấp và có trách nhiệm bảo đảm an toàn, nguyên vẹn của hệ thống trong quá trình sử dụng; trường hợp sửa đổi, tích hợp hoặc thay đổi chức năng làm phát sinh rủi ro mới hoặc rủi ro cao hơn thì phối hợp nhà cung cấp thực hiện phân loại lại.
ĐB Nguyễn Văn Cảnh bày tỏ sự quan ngại về tính khả thi của quy định này: Làm thế nào để chắc chắn bên triển khai luôn hiểu rõ và nhận biết chính xác mức độ rủi ro tăng lên từ những thay đổi họ thực hiện?
Để phòng ngừa rủi ro và đảm bảo an toàn hệ thống một cách chủ động, ĐB Cảnh đề nghị sửa đổi khoản 2, Điều 9 theo hướng quy định mặc nhiên bên triển khai phải phối hợp với nhà cung cấp phân loại lại khi có bất kỳ sự thay đổi chức năng nào, không phụ thuộc vào việc có chắc chắn phát sinh rủi ro cao hơn hay không.
Cụ thể, đề nghị viết lại khoản 2, Điều 9 như sau: “Bên triển khai được kế thừa kết quả phân loại của nhà cung cấp và có trách nhiệm bảo đảm an toàn, nguyên vẹn của hệ thống trong quá trình sử dụng; trường hợp sửa đổi, tích hợp hoặc thay đổi chức năng thì phối hợp nhà cung cấp thực hiện phân loại lại”.
Đây là biện pháp cần thiết để kiểm soát chặt chẽ rủi ro trong quá trình ứng dụng AI trong thực tế, qua đó bảo vệ môi trường đầu tư và quyền lợi người dân.

































