Hình thức lừa đảo mới: 'Bắt giữ kỹ thuật số'

Một doanh nhân ngành dệt may Ấn Độ tiết lộ rằng ông đã bị lừa mất 70 triệu rupee (833.000 USD) bởi những kẻ lừa đảo trực tuyến mạo danh các nhà điều tra và thậm chí cả chánh án Tòa án Tối cao.

Hình thức lừa đảo tinh vi

Ảnh minh họa: TTXVN

Ảnh minh họa: TTXVN

Những kẻ lừa đảo đóng giả nhân viên Cục Điều tra Trung ương Ấn Độ (CBI) đã gọi điện cho ông SP Oswal, chủ tịch kiêm giám đốc điều hành công ty dệt may Vardhman, vào ngày 28/8 và cáo buộc ông rửa tiền.

Trong hai ngày tiếp sau đó, chúng yêu cầu ông Oswal phải mở Skype trên điện thoại 24/7 đồng thời đe dọa bắt giữ ông. Những kẻ lừa đảo cũng đã tiến hành một phiên tòa giả mạo ảo, dùng deepfake mạo danh Chánh án Tòa án Tối cao Ấn Độ DY Chandrachud.

Ông Oswal đã trả số tiền 70 triệu rupee sau phán quyết của tòa án qua Skype mà không nhận ra bản thân là nạn nhân mới nhất của một vụ lừa đảo trực tuyến sử dụng phương thức hoạt động mới, được gọi là "bắt giữ kỹ thuật số".

Vậy "bắt giữ kỹ thuật số" là gì và cần có những biện pháp nào để ngăn chặn nó?

"Bắt giữ kỹ thuật số" là một hình thức lừa đảo trực tuyến mới, trong đó kẻ lừa đảo khiến nạn phải kết nối với chúng thông qua phần mềm hội nghị truyền hình. Sau đó, kẻ lừa đảo thao túng mục tiêu của mình để duy trì liên lạc video liên tục, thực sự bắt họ làm con tin cho các yêu cầu của chúng.

"Bắt giữ kỹ thuật số" là loại tấn công mạng liên quan đến việc lừa cá nhân tiết lộ thông tin nhạy cảm dẫn đến trộm danh tính, mất mát tài chính hoặc đánh cắp dữ liệu cho mục đích xấu. Các kỹ thuật này đã trở nên tinh vi hơn với sự ra đời của âm thanh và video do trí tuệ nhân tạo(AI) tạo ra.

Điều khiến nhiều vụ lừa đảo này có vẻ “hợp pháp” là việc sử dụng phần mềm hội nghị truyền hìnhVới phần mềm này, một cá nhân sử dụng công nghệ video deepfake tinh vi có thể giả mạo một người hoàn toàn khác tham gia vào cuộc gọi video. Hơn nữa, chỉ cần một đoạn âm thanh, công cụ AI có thể sao chép giọng nói của một người, từ đó được kẻ lừa đảo sử dụng. Một số phần mềm deepfake chỉ cần đoạn ghi âm 10 giây đến một phút giọng nói của một người để sao chép giọng nói, cảm xúc và cách phát âm của người đó.

Ông Oswal đã báocaso cảnh sát địa phương sau vụ việc. Cảnh sát đã giúp ông Oswal thu hồi được 630.000 USD. Theo cảnh sát địa phương, đây là vụ thu hồi lớn nhất ở Ấn Độ đối với một vụ việc có bản chất như vậy. “Bắt giữ kỹ thuật số” đã gia tăng trong những năm gần đây ở Ấn Độ.

Vào tháng 9, một nhân viên làm việc cho Trung tâm Công nghệ Tiên tiến Raja Ramanna (RRCAT) thuộc Bộ Năng lượng Nguyên tử đã bị lừa đảo 7,1 triệu rupee (khoảng 86.000 USD) sau khi bị “bắt giữ kỹ thuật số”. Trong một vụ việc khác vào tháng 9, một viên chức cấp cao của Tổng công ty Xây dựng Công trình Quốc gia Ấn Độ bị lừa đảo 5,5 triệu rupee qua cuộc gọi video WhatsApp sau khi bị buộc tội buôn bán hộ chiếu giả, thẻ ATM bất hợp pháp và ma túy bất hợp pháp.

Cách ngăn chặn

Hầu hết phần mềm deepfake được tạo ra bằng một loại AI được gọi là mạng đối nghịch tạo sinh (GAN). Các GAN này thường để lại “thành phần lạ” trong deepfake. Hệ thống phát hiện deepfake có thể nhận ra chúng. Khi công nghệ deepfake trở nên tinh vi hơn, các hệ thống phát hiện sẽ phải phát triển theo những cải tiến này.

Tuy nhiên, việc chỉ dựa vào phần mềm phát hiện deepfake là không đủ. Theo giáo sư Subrahmanian tại Đại học Northwestern (Mỹ), cần phải nâng cao nhận thức về các công nghệ deepfake và cần có một sáng kiến toàn cầu, tương tự như Quy định bảo vệ dữ liệu chung của châu Âu (GDPR).

Hà Linh/Báo Tin tức (Theo Aljazeera)

Nguồn Tin Tức TTXVN: https://baotintuc.vn/khoa-hoc-cong-nghe/hinh-thuc-lua-dao-moi-bat-giu-ky-thuat-so-20241012153740642.htm
Zalo