Vấn nạn deepfake tống tiền đang diễn ra nghiêm trọng

Deepfake đang trở thành công cụ nguy hiểm trong các âm mưu tống tiền trực tuyến. Mới đây, hơn 100 công chức Singapore, bao gồm các bộ trưởng, đã bị tống tiền qua email với video deepfake yêu cầu tiền chuộc. Các vụ việc này làm nổi bật mối đe dọa ngày càng gia tăng từ AI, không chỉ đối với chính trị gia mà còn với tất cả mọi người.

Cuối tháng 11, một vụ tống tiền liên quan đến deepfake đã nhắm mục tiêu vào hơn 100 công chức Singapore, bao gồm 5 bộ trưởng. Các email đe dọa yêu cầu 50.000 USD tiền điện tử để đổi lấy việc không công khai các video chứa ảnh chụp màn hình mà khuôn mặt nạn nhân bị ghép vào trong đó. Ảnh mặt nạn nhân được lấy từ các nguồn công khai như LinkedIn.

Đây không phải là vụ tống tiền đầu tiên đối với công chức Singapore. Vào đầu năm nay, một số thành viên quốc hội cũng nhận được thư đe dọa có chứa hình ảnh khiêu dâm bị chỉnh sửa theo cách tương tự. Những sự cố như vậy làm nổi bật mối lo ngại về khả năng của trí tuệ nhân tạo (AI) trong các nỗ lực tống tiền qua deepfake.

 Những video deepfake gần đây nhắm đến công chức làm nổi bật mối lo ngại về khả năng của AI trong các nỗ lực tống tiền. Ảnh: iStock/fizkes

Những video deepfake gần đây nhắm đến công chức làm nổi bật mối lo ngại về khả năng của AI trong các nỗ lực tống tiền. Ảnh: iStock/fizkes

Tống tiền deepfake đang gia tăng

Các vụ tống tiền tương tự cũng đã xảy ra ở các quốc gia khác tại châu Á. Vào tháng 11, một âm mưu tống tiền nhằm vào các chính trị gia nam ở Hàn Quốc đã được phát hiện, trong đó khuôn mặt của nạn nhân bị ghép vào những hình ảnh nhạy cảm. Kẻ tống tiền yêu cầu tiền chuộc để ngừng phát tán các hình ảnh đó. Trước đó, vào năm 2019, một video deepfake khiêu dâm nhắm vào một chính trị gia Malaysia đã được phát tán trên WhatsApp.

Khả năng của AI trong việc tạo ra nội dung giả mạo nhưng rất giống thật đang gây ra những rủi ro lớn đối với an ninh cá nhân. Các công cụ AI hiện nay dễ dàng tiếp cận, cho phép bất kỳ ai cũng có thể nhanh chóng tạo ra deepfake để chuyển đổi hình ảnh của một người này thành của người khác.

Tội phạm mạng không chỉ áp dụng công nghệ deepfake cho mục đích tống tiền mà còn cho các mục đích xấu khác như lừa đảo đầu tư. Những video deepfake như vậy không chỉ ảnh hưởng đến các chính trị gia và người nổi tiếng mà còn tác động tiêu cực đến những người bình thường.

Deepfake: Công cụ hữu ích của tội phạm mạng

Các nhân vật công chúng như chính trị gia và doanh nhân thường là mục tiêu của những vụ tống tiền deepfake, bởi hình ảnh và video của họ có sẵn trên mạng. Kẻ xấu có thể lợi dụng deepfake không chỉ để kiếm tiền mà còn để thu thập thông tin hoặc làm tổn hại đến sự nghiệp của các cá nhân này.

Điều này càng trở nên đáng lo ngại hơn khi các chính trị gia và doanh nhân thường tiếp cận những dữ liệu nhạy cảm, có thể bị lạm dụng trong các âm mưu phá hoại.

Tội phạm mạng cũng đã áp dụng các chiến thuật tương tự đối với người dân thường. Vào tháng 6/2023, FBI đã cảnh báo về các "âm mưu tống tiền tình dục" trong đó kẻ xấu tạo ra nội dung khiêu dâm deepfake để ép buộc nạn nhân phải trả tiền hoặc gửi ảnh/video khiêu dâm thực sự của chính họ.

Những nỗ lực tống tiền như vậy có thể gây tổn hại nghiêm trọng đến danh tiếng và tạo ra đau khổ về mặt tinh thần cho các nạn nhân. Mặc dù nạn nhân biết rằng nội dung đó là giả, nhưng họ vẫn sợ rằng công chúng có thể tin vào điều đó.

Đáng chú ý, phụ nữ chiếm phần lớn nạn nhân trong các vụ tống tiền deepfake. Một nghiên cứu năm 2023 của công ty an ninh mạng Security Hero cho thấy 99% nạn nhân của các video khiêu dâm deepfake là phụ nữ. Một nghiên cứu khác của ESET UK vào năm 2024 cho thấy gần 2/3 phụ nữ lo ngại về việc trở thành nạn nhân của các vụ deepfake khiêu dâm.

Deepfake đang trở thành công cụ mạnh mẽ để thuyết phục mọi người tin vào những sự kiện không có thật và có thể bị kẻ xấu lợi dụng để phục vụ cho mục đích của mình.

Bên cạnh đó, một số đối tượng có thể sử dụng deepfake làm lá chắn bào chữa cho mình bằng cách nói rằng những hình ảnh và video bằng chứng đã bị chỉnh sửa. Điều này tạo ra bất ổn trong việc xác thực thông tin và làm giảm lòng tin của công chúng vào các nguồn tin trực tuyến.

Biện pháp phòng ngừa

Những tiến bộ trong AI sẽ khiến deepfake khó bị phát hiện hơn, đồng thời tạo điều kiện cho những kẻ xấu sử dụng công nghệ này vào các mục đích tội phạm. Vì vậy, việc nâng cao nhận thức về khả năng của AI và mối nguy từ deepfake, đặc biệt là trong các âm mưu tống tiền tình dục, là vô cùng quan trọng.

Khi tất cả mọi thứ ngày càng trở nên trực tuyến, có rất nhiều thông tin có thể bị kẻ xấu khai thác. Vì vậy, chúng ta cần thận trọng hơn với những gì mình đăng tải trực tuyến, thiết lập quyền riêng tư trên các mạng xã hội và chỉ chia sẻ thông tin với những người mình tin tưởng. Báo cáo các vụ tống tiền hoặc hoạt động tội phạm tình dục cho cảnh sát và các nền tảng mạng xã hội là bước đi đầu tiên cần thiết.

Để xác định xem thứ gì đó chúng ta thấy trực tuyến là thật hay giả, chúng ta cần phải cẩn thận xem xét động cơ đằng sau việc tạo và phát tán những nội dung đó. Câu hỏi về động cơ sẽ giúp chúng ta đánh giá được tính xác thực của các thông tin mà chúng ta tiếp nhận.

Với sự phát triển ngày càng mạnh mẽ của công nghệ deepfake, cùng với việc tội phạm mạng liên tục thích nghi, chúng ta cần luôn cập nhật các thông tin mới nhất và duy trì cảnh giác với các mối đe dọa trực tuyến.

Ngọc Ánh (theo CNA)

Nguồn Công Luận: https://congluan.vn/van-nan-deepfake-tong-tien-dang-dien-ra-nghiem-trong-post325096.html
Zalo