Tội phạm lợi dụng công nghệ deepfake lan rộng
Tại Hàn Quốc, tội phạm sử dụng trí tuệ nhân tạo (AI) để tạo các video và hình ảnh giả mạo (công nghệ deepfake) đang gia tăng.
4 năm trước, các nhà nghiên cứu tại Trường Đại học University College London đã đánh giá công nghệ deepfake sử dụng trí tuệ nhân tạo (AI) để tạo các video và hình ảnh giả mạo là "loại tội phạm dựa trên AI nguy hiểm nhất có thể xảy ra trong 15 năm tới".
Đánh giá này là kết quả của cuộc thảo luận giữa 31 chuyên gia từ học viện và cơ quan thực thi pháp luật, những người đã đánh giá 18 loại tội phạm dựa trên các yếu tố như tác hại tiềm ẩn và tính khả thi.
Công nghệ deepfake xuất hiện trong bối cảnh lo ngại về khả năng bị sử dụng sai mục đích trong các tội phạm nghiêm trọng. Tại Hàn Quốc, tội phạm lợi dụng công nghệ này này cũng đang gia tăng. Deepfake không chỉ được sử dụng trong các tội phạm tình dục gây tranh cãi mà còn trong việc phát tán thông tin giả mạo hoặc mạo danh người nổi tiếng để lừa đảo.
Các chuyên gia cho rằng mặc dù việc quản lý công nghệ là điều không thể, nhưng đã đến lúc phải áp dụng các giải pháp thay thế như tăng cường hợp tác quốc tế.
Hồi tháng Hai, một đoạn video dài 46 giây xuất hiện cho thấy Tổng thống Yoon Suk Yeol nói rằng: "Tôi là người thực thi những luật lệ quấy rối người dân". Đây là một trong những ví dụ đáng chú ý nhất về video deepfake nhắm vào các chính trị gia ở Hàn Quốc. Hai tháng sau, một người đàn ông ngoài 50 tuổi đã bị bắt vì tội phỉ báng theo Đạo luật Mạng thông tin và Truyền thông sau khi bị phát hiện đã tạo và phát tán video nêu trên.
Việc sử dụng deepfake để tác động đến các cuộc bầu cử cũng đang gia tăng. Theo dữ liệu do nghị sỹ đảng Dân chủ Hàn Quốc Han Byung Do thu thập từ Ủy ban Bầu cử Quốc gia (NEC), đã có 388 bài đăng vận động bầu cử bất hợp pháp sử dụng deepfake được báo cáo trong thời gian vận động cho cuộc tổng tuyển cử vào ngày 10/4. Trong số này, 97 bài (25%) không bị xóa mặc dù NEC đã yêu cầu. Tổng số vụ vi phạm trực tuyến Luật Bầu cử Công chức cũng tăng đáng kể, đạt 74.172 vụ so với 1.793 vụ trong cuộc tổng tuyển cử năm 2012.
Những người nổi tiếng, những người thường xuyên xuất hiện trước ống kính máy quay, cũng thường là mục tiêu của những tội ác như vậy. Năm 2023, một nhóm lừa đảo đã tạo ra các video deepfake của các diễn viên Jo In-sung và Song Hye-kyo để khuyến khích đầu tư, dụ dỗ nạn nhân vào các vụ lừa đảo.
Thật khó để ngăn chặn sự phát triển nhanh chóng của công nghệ deepfake, vì môi trường nơi bất kỳ ai cũng có thể dễ dàng tạo và phân phối nội dung như vậy đã tồn tại.
Ông Kim Min-ho, Giáo sư tại Khoa Luật, Đại học Sungkyunkwan, cho biết: "Deepfake đã tồn tại trong nhiều năm, nhưng chúng đã trở thành vấn đề xã hội khi những người không chuyên có thể dễ dàng tạo ra chúng mà không tốn nhiều chi phí. Các hoạt động bất hợp pháp cần phải được giám sát và trấn áp trên các nền tảng mạng xã hội.
Ngoài ra, ngày càng có nhiều ý kiến cho rằng mọi người cần được giáo dục về thực tế rằng deepfake không chỉ để giải trí mà còn có thể là một tội nghiêm trọng. Các tội phạm liên quan đến deepfake đã xảy ra cho thấy cần giám sát chặt chẽ thông qua hợp tác quốc tế.
Ông Lim Jong In, Giáo sư danh dự tại Khoa An ninh thông tin của Đại học Hàn Quốc, cho biết deepfake có thể gây nên bầu không khí ngờ vực trong xã hội, thậm chí có khả năng dẫn đến khủng hoảng dân chủ. Theo Giáo sư Lim, hợp tác quốc tế để kiểm soát tội phạm liên quan tới deepfake là điều cần thiết, giống như cách cộng đồng toàn cầu giải quyết tội phạm ma túy.