Bộ Công an cảnh báo tình trạng lừa đảo bằng hình ảnh, video giả mạo
Mới đây, Bộ Công an đã gửi tin nhắn cảnh báo về việc xuất hiện tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo.
Công nghệ ngày càng phát triển, kéo theo đó là những thủ đoạn tấn công mạng tinh vi hơn bao giờ hết.
Theo báo cáo của Kaspersky, số vụ tấn công mạng trên thế giới đã tăng vọt trong năm qua. Trong đó, mối đe dọa hàng đầu vẫn là lừa đảo (phishing), với gần một nửa số người được hỏi cho biết họ từng là nạn nhân. Điều đáng lo ngại là tội phạm mạng đang lợi dụng AI để nâng cấp các hình thức lừa đảo, khiến chúng trở nên khó phát hiện và nhận biết.

Bộ Công an cảnh báo tình trạng lừa đảo bằng hình ảnh, video giả mạo. Ảnh: TIỂU MINH
Deepfake, mối đe dọa mới khó nhận biết
Công nghệ deepfake là một nhánh nổi bật của AI. Nhờ khả năng tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng lên các video, cuộc gọi nhằm lừa đảo tài chính.
Một ví dụ điển hình là trường hợp kẻ gian giả danh lãnh đạo trong một cuộc họp qua video, thuyết phục nhân viên chuyển khoản số tiền lên tới 25,6 triệu USD. Với sự phát triển không ngừng của deepfake, các cuộc tấn công kiểu này được dự báo sẽ ngày càng phổ biến.

Video giả mạo người nổi tiếng để lừa đảo đầu tư. Ảnh: Kaspersky
Ngay cả những chuyên gia bảo mật giàu kinh nghiệm cũng có thể trở thành nạn nhân của các cuộc tấn công được hỗ trợ bởi AI. Mức độ chân thực và tính cá nhân hóa cao của nội dung lừa đảo đôi khi vượt qua sự hoài nghi, vốn là “lá chắn” giúp họ cảnh giác.
Hơn nữa, các chiêu trò này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video.
Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.
Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore, Ấn Độ…
Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.
Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra.
Làm thế nào để hạn chế bị lừa bởi hình ảnh, video giả mạo?
Theo các chuyên gia Google, người dùng cần phải cảnh giác với lời khuyên đầu tư từ người nổi tiếng, đặc biệt là trên mạng xã hội. Hãy quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Nếu một khoản đầu tư nghe có vẻ quá hấp dẫn, thì rất có thể đó là một chiêu trò lừa đảo.

Quan sát kĩ các biểu cảm trên khuôn mặt để phát hiện đây có phải là video giả mạo không.
Trước đó, FBI cũng cung cấp một số biện pháp giúp người dùng nhận diện và tránh xa những âm mưu lừa đảo được hỗ trợ bởi AI.
Việc đầu tiên là kiểm soát nội dung trên mạng xã hội. Đây được xem là yếu tố then chốt, có nghĩa là bạn cần hạn chế chia sẻ hình ảnh, video hoặc giọng nói công khai, đồng thời đặt chế độ tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.
Ngoài ra, người dùng cũng nên cảnh giác với các tin nhắn, email hoặc cuộc gọi không xác định. Cụ thể, khi nhận được các cuộc gọi tự xưng là nhân viên ngân hàng, cán bộ nhà nước, công an… bạn hãy từ chối cuộc gọi, không cung cấp thông tin cá nhân, tài khoản hoặc làm theo yêu cầu của họ.
Các dấu hiệu bất thường trong hình ảnh, video hoặc giọng nói cũng có thể giúp bạn nhận diện các trò lừa đảo. Ví dụ, một bức ảnh có chi tiết méo mó, một video có chuyển động kỳ lạ, hoặc giọng nói với ngữ điệu không tự nhiên đều có thể là sản phẩm của AI.
Khi AI ngày càng được tích hợp vào cuộc sống hàng ngày, việc bạn trở thành mục tiêu của các trò lừa đảo tinh vi là điều hoàn toàn có thể xảy ra.
Thay vì lo sợ, chúng ta nên tập trung vào việc nâng cao nhận thức và cải thiện hiểu biết về an ninh mạng. Mỗi cá nhân có thể tự bảo vệ mình bằng cách luôn cập nhật thông tin, cảnh giác và cẩn trọng khi sử dụng Internet.