Hoàn thiện chính sách, pháp luật về trí tuệ nhân tạo

Chỉ trong nửa năm nay, những công cụ tạo nội dung bằng trí tuệ nhân tạo (AI) liên tục ra mắt, biến những thông tin ảo thành sản phẩm sống động khó phân biệt thật - giả, thậm chí tạo 'cơn sốt' chục triệu lượt xem trên mạng xã hội Việt Nam trong thời gian ngắn. Song, sự bùng nổ đó cho thấy nhiều nguy cơ tiềm ẩn với chính người dùng, cũng như hệ thống pháp lý về quản lý nội dung AI vẫn còn nhiều khoảng trống, chưa ràng buộc trách nhiệm gắn nhãn, xử phạt hay bảo vệ quyền sở hữu trí tuệ…

Video tạo bởi Veo3 đang “bùng nổ” trên mạng xã hội, nếu không gắn nhãn khó phân biệt thật, giả. (Ảnh cắt từ clip AI)

Video tạo bởi Veo3 đang “bùng nổ” trên mạng xã hội, nếu không gắn nhãn khó phân biệt thật, giả. (Ảnh cắt từ clip AI)

Nội dung “thật - giả lẫn lộn” tràn lan

Trong vòng ba năm, AI đã chuyển từ một công cụ hỗ trợ đồ họa đơn giản thành cỗ máy có thể viết nội dung, hát nhạc và dựng phim đạt độ chân thực như quay bằng máy ảnh. Điển hình là Veo3 - nền tảng tạo video của Google DeepMind, vừa xuất hiện thời gian qua và nhanh chóng thu hút sự chú ý của đông đảo người dùng. Khác với Sora (OpenAI) vốn mạnh ở hình, yếu ở tiếng, Veo 3 đồng bộ hóa hình ảnh, tiếng gió, bước chân và lời thoại, tạo nên những thước phim gần như thật.

Lợi thế ấy lập tức gây “bão” mạng xã hội Việt Nam. Chỉ trong hai tuần đầu, hashtag #veo3 trên TikTok, Facebook Reels và YouTube Shorts thu hút hàng chục triệu lượt xem. Đơn cử, một clip dài tám giây ghi lại cảnh người bán cá tươi cười vẫy khách hoàn toàn do AI dựng đã đạt 5 triệu view và hơn 300 nghìn lượt thích. Một video khác cho thấy người phụ nữ đứng rán trứng dưới nắng chiều, ánh lửa phản chiếu lên chảo, nhận về 2,6 triệu lượt xem. Đa số bình luận thú nhận “không nhận ra hàng giả” cho đến khi tác giả gắn dòng chú thích nhỏ cuối video.

Những ví dụ trên không phải trường hợp cá biệt. Tuy nhiên, bên cạnh sự phấn khích của một bộ phận công chúng, tình trạng này cho thấy ngưỡng phân biệt thật - giả đang mờ dần với người dùng phổ thông, tiềm ẩn nguy cơ thông tin bị nhiễu loạn, niềm tin đại chúng trên không gian mạng giảm sút, dư luận dễ bị thao túng bởi thông tin giật gân hoặc giả mạo có chủ đích. Điều này cũng tương tự như các vụ lừa đảo dùng công nghệ “deepfake” giả mạo người thân, người quen của nạn nhân để thực hiện các hành vi trái pháp luật, gây nhức nhối nhiều năm nay.

Cần sớm lấp đầy khoảng trống pháp lý

Khó thể phủ nhận, thế hệ công cụ như Veo3 mở ra bức tranh sáng - tối đan xen: tiết kiệm chi phí sản xuất, mở rộng cơ hội sáng tạo nhưng cũng thổi bùng nguy cơ lừa đảo, thao túng dư luận. Khoảng trống pháp lý hiện nay chính là hạn chế của các nhà quản lý đối với tình trạng số lượng nội dung giả mạo tăng tốc không kiểm soát.

Cụ thể, pháp luật hiện hành đang không quy định cụ thể về quản lý các nội dung tạo bởi AI. Khác với nội dung do con người biên soạn và có danh tính rõ ràng. AI phá vỡ tiền đề đó - bản thân video AI với “diễn viên ảo” không thuộc tác giả cụ thể, các nền tảng lại đặt máy chủ ở nước ngoài. Khi sự kiện sai sự thật phát tán trong vài phút, quy trình xác minh và gỡ bỏ kéo dài hàng giờ đến hàng ngày, khi đó rủi ro đã lan rộng.

Thực tế hiện nay đòi hỏi Việt Nam cần ban hành bộ quy tắc riêng cho nội dung AI, từ tiêu chí giới hạn, nhãn bắt buộc đến chế tài đủ sức răn đe, song song với các giải pháp khuyến khích đầu tư cho giáo dục và hợp tác quốc tế nhằm bảo đảm công nghệ phát triển hài hòa, bảo vệ quyền riêng tư và an toàn thông tin, đồng thời gìn giữ niềm tin số của xã hội.

Kinh nghiệm quốc tế cho thấy nhiều nước đã xây dựng khung quản trị AI lấy quản lý rủi ro làm trung tâm. Tiêu biểu, Đạo luật Trí tuệ Nhân tạo của Liên minh châu Âu (EU AI Act) được Nghị viện EU thông qua tháng 3/2024, phân loại hệ thống AI theo bốn mức: (1) bị cấm hoàn toàn, (2) rủi ro cao, (3) rủi ro có hạn và (4) rủi ro tối thiểu.

Với các vi phạm nghiêm trọng (ví dụ cố ý bỏ qua nghĩa vụ an toàn), doanh nghiệp có thể bị phạt tới 7% doanh thu toàn cầu hoặc 35 triệu EUR, tùy mức nào cao hơn; mức 3% và 1,5% áp cho các hành vi nhẹ hơn. Các sáng kiến như mạng lưới Content Provenance Initiative (C2PA) - liên minh phát triển chuẩn “dấu vân tay” kỹ thuật số, cũng đang phát huy hiệu quả trong việc truy vết nguồn gốc nội dung xuyên biên giới và bảo vệ niềm tin số của người dùng.

Song song, mọi nội dung do AI sinh ra cần gắn nhãn rõ ràng, tuân thủ tinh thần “quản rủi ro nhưng không bóp nghẹt sáng tạo”. Đối với hành vi phát tán “deepfake”, cần có các quy định đánh giá mức độ nghiêm trọng để truy cứu trách nhiệm hình sự, tăng tính răn đe.

Một khoảng trống khác là quyền sở hữu trí tuệ, khi pháp luật chưa có quy định tác quyền cho tác phẩm do mô hình AI tạo sinh sản xuất ra, điều này gây ra nhiều hạn chế trong việc xác định các trách nhiệm trực tiếp và gián tiếp.

Bên cạnh trách nhiệm của người nhập lệnh (prompter), các nhà cung cấp mô hình, nền tảng phát tán, người chia sẻ cũng chưa bị ràng buộc trách nhiệm phải phát hiện, sàng lọc, gắn nhãn, cảnh báo, thậm chí là ngăn chặn, gỡ bỏ các nội dung vi phạm được tạo bởi AI.

Đỗ Trang

Nguồn Pháp Luật VN: https://baophapluat.vn/hoan-thien-chinh-sach-phap-luat-ve-tri-tue-nhan-tao-post551277.html
Zalo