Lật tẩy chiêu trò lừa đảo giả mạo giọng nói
Theo Cơ quan cảnh sát châu Âu (Europol), sự phát triển của trí tuệ nhân tạo (AI) không chỉ mang lại lợi ích mà còn tạo ra những mối đe dọa mới, đặc biệt là giả mạo giọng nói và video.
Một trong những xu hướng đáng lo ngại hiện nay là việc sử dụng công nghệ deepfake để giả mạo giọng nói nhằm lừa đảo, và chiếm đoạt tài sản. Europol cảnh báo rằng AI đang thúc đẩy sự gia tăng của tội phạm có tổ chức, khiến các vụ lừa đảo trở nên tinh vi và khó phát hiện hơn.
Giả mạo giọng nói bằng deepfake
Khi nhắc đến deepfake, hầu hết mọi người nghĩ đến các video giả mạo. Tuy nhiên, một dạng deepfake đang ngày càng phổ biến và nguy hiểm hơn chính là giả mạo giọng nói. Công nghệ này cho phép tội phạm tái tạo giọng nói của bất kỳ ai, chỉ cần có một đoạn âm thanh ngắn của họ.
Hãy tưởng tượng bạn nhận được một cuộc gọi từ con gái mình, giọng nói run rẩy, hoảng loạn, cầu xin giúp đỡ và nói rằng cô bé đang bị bắt cóc. Kẻ gian yêu cầu bạn chuyển khoản ngay lập tức để bảo đảm sự an toàn cho con.
Trong thực tế, con bạn có thể vẫn đang an toàn ở trường học hoặc rạp chiếu phim, nhưng giọng nói bạn nghe thấy lại giống hệt như thật bằng deepfake âm thanh.
Cựu chuyên gia an ninh mạng của Cơ quan An ninh Quốc gia Hoa Kỳ (NSA), Evan Dornbush, chia sẻ với Forbes rằng AI giúp những kẻ lừa đảo tạo ra các đoạn âm thanh giả mạo nhanh hơn và đáng tin cậy hơn bao giờ hết. Chi phí để thực hiện những vụ lừa đảo này đang giảm xuống, khiến chúng trở nên phổ biến và khó kiểm soát hơn.

Giả mạo giọng nói bằng AI ngày càng tinh vi. Ảnh: AI
AI và kỹ thuật xã hội
Lừa đảo bằng deepfake không chỉ lợi dụng công nghệ mà còn khai thác điểm yếu tâm lý của con người thông qua kỹ thuật xã hội. Đây là cách tội phạm dùng các phương pháp thao túng tâm lý để khiến nạn nhân tin tưởng và thực hiện hành động theo ý chúng.
Ví dụ, nếu bạn nhận được một tin nhắn giả mạo từ ngân hàng, yêu cầu xác minh tài khoản, bạn có thể nhanh chóng nhập thông tin mà không hề nghi ngờ.
Tương tự, trong các cuộc gọi lừa đảo bằng deepfake, bạn sẽ bị đặt vào trạng thái căng thẳng cao độ, mất khả năng suy xét logic và dễ dàng làm theo yêu cầu của kẻ gian.
FBI đã cảnh báo về xu hướng tấn công này và kêu gọi người dùng cảnh giác hơn với các cuộc gọi khẩn cấp đòi tiền chuộc hoặc nhờ chuyển tiền gấp.
Làm sao để phát hiện và ngăn chặn lừa đảo giả mạo giọng nói?
Một trong những cách đơn giản nhưng hiệu quả để kiểm tra tính xác thực của cuộc gọi là tạo một mật mã bí mật giữa bạn và người thân. Hãy chọn một từ hoặc cụm từ mà chỉ hai bên biết và sử dụng nó trong trường hợp khẩn cấp.
Ví dụ, nếu bạn nhận được một cuộc gọi từ con trai mình yêu cầu chuyển tiền, hãy hỏi lại “mật mã là gì?” Nếu người gọi không thể trả lời hoặc cố gắng lảng tránh, rất có thể bạn đang đối diện với một vụ lừa đảo.
Dù công nghệ deepfake đang ngày càng tinh vi, vẫn có một số dấu hiệu có thể giúp bạn phát hiện sự giả mạo. Đơn cử như giọng nói nghe có vẻ không tự nhiên, lặp lại từ ngữ bất thường, không phản ứng linh hoạt…
Kẻ lừa đảo có thể tạo deepfake chỉ với vài giây ghi âm giọng nói của bạn. Vì vậy, hãy hạn chế đăng các đoạn ghi âm, video cá nhân lên mạng xã hội, đặc biệt là những nội dung có giọng nói rõ ràng.
Nhìn chung, những kẻ lừa đảo cố gắng đặt bạn vào trạng thái hoảng loạn để khiến bạn hành động mà không suy nghĩ. Nếu nhận được một cuộc gọi khẩn cấp, hãy hít thở sâu, bình tĩnh phân tích tình huống và sử dụng các biện pháp kiểm tra trước khi thực hiện bất kỳ giao dịch nào.