Vì sao chuyên gia bảo mật cũng có thể bị lừa bởi AI?
Không chỉ dừng lại ở các chiêu trò cũ, tội phạm mạng giờ đây đang sử dụng AI để nâng cấp chiến thuật, khiến ngay cả các chuyên gia bảo mật giàu kinh nghiệm cũng có thể bị lừa đảo.
Công nghệ ngày càng phát triển, kéo theo đó là những thủ đoạn tấn công mạng tinh vi hơn bao giờ hết.
Một nghiên cứu gần đây của Kaspersky cho thấy số vụ tấn công an ninh mạng đã tăng vọt trong năm qua. Trong đó, lừa đảo (phishing) vẫn là mối đe dọa hàng đầu, với gần một nửa số người được hỏi cho biết họ từng là nạn nhân. Điều đáng lo ngại là tội phạm mạng ngày càng lợi dụng AI để nâng cấp các chiêu trò lừa đảo, khiến chúng trở nên khó phát hiện hơn bao giờ hết.
AI đã thay đổi cuộc chơi như thế nào?
Trước đây, các cuộc tấn công lừa đảo qua email thường nhắm đến số lượng, với các tin nhắn rập khuôn được phát tán hàng loạt. Giờ đây, AI đã thay đổi cuộc chơi khi tạo ra những email lừa đảo được cá nhân hóa đến từng chi tiết. Tận dụng dữ liệu cá nhân công khai trên mạng xã hội, trang tuyển dụng hay website công ty, các công cụ AI có thể “may đo” nội dung email phù hợp với vai trò, sở thích và phong cách giao tiếp của từng cá nhân.
Ví dụ, một CFO có thể nhận được email từ “CEO” với giọng điệu chân thực, nội dung chính xác đến từng sự kiện gần đây của công ty. Điều này khiến nhân viên khó phân biệt giữa một yêu cầu hợp pháp và một cái bẫy được thiết kế tỉ mỉ.
Deepfake - “Vũ khí” trong tay kẻ gian
Công nghệ deepfake, một nhánh nổi bật của AI, đang trở thành công cụ lợi hại cho tội phạm mạng. Nhờ khả năng tái tạo âm thanh và hình ảnh của một người với độ chính xác kinh ngạc, kẻ tấn công có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng nên các video, cuộc gọi nhằm lừa đảo tài chính.
Một ví dụ điển hình là trường hợp kẻ gian giả danh lãnh đạo trong một cuộc họp qua video, thuyết phục nhân viên chuyển khoản số tiền lên tới 25,6 triệu USD. Với sự phát triển không ngừng của deepfake, các cuộc tấn công kiểu này được dự báo sẽ ngày càng phổ biến.
AI không chỉ tạo ra nội dung chân thực mà còn giúp kẻ tấn công đánh lừa các hệ thống bảo mật truyền thống. Bằng cách mô phỏng các mẫu email hợp pháp, chúng có thể vượt qua các bộ lọc email tự động. Hơn nữa, thuật toán học máy còn giúp tội phạm mạng tối ưu hóa các chiêu trò trong thời gian thực, tăng đáng kể tỉ lệ thành công của các vụ tấn công.
Ngay cả những chuyên gia bảo mật giàu kinh nghiệm cũng có thể trở thành nạn nhân của các cuộc tấn công được hỗ trợ bởi AI. Mức độ chân thực và tính cá nhân hóa cao của nội dung lừa đảo đôi khi vượt qua sự hoài nghi, vốn là “lá chắn” giúp họ cảnh giác.
Hơn nữa, các chiêu trò này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Làm sao để hạn chế bị sập bẫy trước các chiêu trò lừa đảo được hỗ trợ bởi AI?
Để đối phó với các cuộc tấn công lừa đảo ngày càng tinh vi do AI hỗ trợ, các tổ chức cần áp dụng một cách tiếp cận chủ động và toàn diện.
Việc đào tạo thường xuyên để nâng cao nhận thức của nhân viên về an ninh mạng là bước đầu tiên, giúp họ nhận diện những dấu hiệu bất thường trong email hoặc thông điệp có thể tiềm ẩn rủi ro.
Các công cụ bảo mật hiện đại cũng đóng vai trò quan trọng, đặc biệt là những hệ thống có khả năng phát hiện bất thường trong nội dung và siêu dữ liệu, từ đó ngăn chặn các email lừa đảo trước khi chúng tiếp cận người dùng.
Song song với việc củng cố công nghệ, mô hình bảo mật "zero-trust" cần được áp dụng, đảm bảo chỉ những người thực sự cần thiết mới có quyền truy cập vào dữ liệu quan trọng. Ngay cả khi một lớp phòng vệ bị xuyên thủng, cấu trúc bảo mật phân tầng này sẽ giới hạn tối đa thiệt hại.
Quan trọng hơn, các doanh nghiệp cần duy trì sự kết hợp hài hòa giữa công nghệ tiên tiến và sự giám sát liên tục của con người. Đây chính là chìa khóa để xây dựng một mạng lưới bảo vệ vững chắc trước những mối đe dọa ngày càng phức tạp từ AI.