Trí tuệ nhân tạo - 'Con dao hai lưỡi' với an ninh mạng
Trí tuệ nhân tạo (AI) đang mở ra cơ hội to lớn trong lĩnh vực an ninh mạng, giúp các doanh nghiệp, tổ chức phát hiện và ứng phó tấn công nhanh. Nhưng song song với tiềm năng đó là hiểm họa khó lường: 'tin tặc' được 'tiếp sức' bởi AI, các chiến dịch deepfake và lừa đảo tự động hóa tinh vi, cùng nguy cơ 'ảo giác AI' trong chính hệ thống phòng thủ.
Khi “tin tặc” được AI “tiếp sức”
Sự xuất hiện của ChatGPT vào năm 2022 đã mở ra kỷ nguyên mới khi tội phạm mạng không còn cần đội ngũ lập trình viên đắt đỏ, mà chỉ cần một công cụ AI tạo sinh để xây dựng mã độc. Chia sẻ với The Economist (Anh), chuyên gia nghiên cứu AI Vitaly Simonovich tại Công ty an ninh mạng Cato Networks cho biết, ông đã thử nghiệm sử dụng ChatGPT trong 6 giờ để viết và hoàn thành phần mềm đánh cắp mật khẩu từ Google Chrome. Còn theo Gil Messing, một chuyên gia an ninh mạng khác tại Check Point, AI đã “mở rộng tầm với” của “tin tặc”, cho phép tấn công trên diện rộng với chi phí thấp hơn nhiều.
Cụ thể, AI gia tăng rủi ro theo hai hướng chính. Thứ nhất, “tin tặc” có thể dùng các mô hình ngôn ngữ lớn (LLMs) để mở rộng phạm vi phát tán mã độc. Việc tạo deepfake, email giả mạo hay các thủ đoạn lừa đảo xã hội (social engineering) nhằm thao túng hành vi con người nay trở nên dễ dàng và nhanh chóng hơn bao giờ hết. Chúng có thể “bẻ khóa” hoặc “lách” những mô hình sẵn có như ChatGPT, thậm chí thuê hẳn các mô hình “đen” như XanthoroxAI với chi phí rẻ hơn nhiều, để tạo ra deepfake và thực hiện nhiều hành vi phạm pháp khác trên không gian mạng. Với trợ lực từ AI, “tin tặc” có thể thu thập khối lượng thông tin khổng lồ từ internet, tạo ra email lừa đảo cá nhân hóa theo từng nạn nhân. Thực tế minh chứng, các cuộc tấn công có mục tiêu cụ thể (spearphishing) còn sử dụng giọng nói hoặc video deepfake mạo danh đồng nghiệp để thuyết phục nhân viên tải và cài đặt phần mềm độc hại.
Thứ hai, AI còn khiến chính mã độc trở nên nguy hiểm hơn. Một tập tin PDF trông vô hại có thể ẩn đoạn mã phối hợp với AI để xâm nhập hệ thống. Các vụ tấn công nhằm vào hạ tầng an ninh và quốc phòng Ukraine hồi tháng 7 vừa qua là ví dụ. Khi phần mềm độc hại bị chặn, nó có thể “nhờ” mô hình ngôn ngữ lớn (LLMs) trên đám mây viết đoạn mã mới nhằm phá vỡ lớp phòng thủ. Đây được ghi nhận là vụ tấn công đầu tiên thuộc loại này, cảnh báo tương lai đáng lo ngại về sự nguy hiểm của các vụ tấn công AI.
Mối đe dọa ngày càng hiện hữu này đồng nghĩa với thiệt hại khổng lồ. Theo IBM, số liệu thống kê năm 2024 cho biết, cứ 6 vụ rò rỉ dữ liệu thì có 1 vụ có yếu tố AI và AI cũng góp phần trong 40% email lừa đảo nhắm vào doanh nghiệp. Deloitte ước tính, các hành vi gian lận do AI hỗ trợ có thể gây thất thoát tới 40 tỷ USD vào năm 2027, tăng gấp hơn ba lần so với 12 tỷ USD năm 2023.
Lo ngại “ảo giác AI” đe dọa vận hành an ninh mạng
Sự gia tăng tấn công mạng cũng đồng nghĩa nhu cầu phòng thủ bùng nổ. Hãng nghiên cứu Gartner ước tính chi tiêu toàn cầu cho an ninh mạng sẽ đạt 240 tỷ USD vào năm 2026, tăng 25% so với 2024. Lợi nhuận của các tập đoàn lớn như Palo Alto Networks tăng tới 82% chỉ trong một năm nhờ nhu cầu này. Các công ty không ngừng sáp nhập để gia tăng sức mạnh bảo mật. Palo Alto chi 25 tỷ USD mua CyberArk, đồng thời chi 700 triệu USD thâu tóm Protect AI. SentinelOne mua Prompt Security với giá 250 triệu USD. Trong khi đó, Microsoft và Google cũng mở rộng công cụ bảo mật tích hợp vào dịch vụ đám mây. Microsoft đã mua CloudKnox năm 2021 và phát triển Defender for Cloud, ứng dụng giúp doanh nghiệp giám sát, bảo vệ dữ liệu và cảnh báo mối đe dọa. Google xây dựng Big Sleep, công cụ phát hiện tấn công mạng và lỗ hổng bảo mật; đồng thời chi tới 32 tỷ USD để mua startup an ninh mạng Wiz.
Công nghệ AI cũng đang trở thành yếu tố không thể thiếu đối với an ninh mạng. Trong mọi ngành công nghiệp, đặc biệt là tài chính, AI giúp tăng tốc phân tích, tự động hóa phân loại và hỗ trợ các chuyên gia phòng thủ theo kịp với khối lượng và sự phức tạp ngày càng lớn của mối đe dọa. Tuy nhiên, theo chuyên trang Biz Tech Magazine (Hoa Kỳ), ngay cả khi các công cụ AI ngày càng được áp dụng trong trung tâm điều hành an ninh (SOC), chúng tiềm ẩn một rủi ro mới: ảo giác AI - hiện tượng xảy ra khi một mô hình tự tin đưa ra kết quả sai (một kết luận dựa trên dữ liệu không chính xác hoặc bị diễn giải nhầm). Máy móc không “biết” rằng mình sai, mà chỉ nhận diện mẫu, suy diễn từ đó và tiếp tục, thường không hề báo hiệu rằng lập luận có thể sai lầm.
Có thể hiểu đơn giản, AI không chỉ là hiểm họa khi bị “tin tặc” khai thác, trong chính hệ thống phòng thủ, AI luôn tiềm ẩn rủi ro tự “ảo giác”, có thể dẫn đến hệ quả nghiêm trọng. Những nguy cơ thường gặp bao gồm: Sinh mã kém an toàn, tạo thêm lỗ hổng; Gắn nhãn sai, bỏ lọt mối đe dọa; Đưa ra gợi ý khắc phục sai, làm tăng rủi ro; Ưu tiên sai mức độ cảnh báo, khiến nguy cơ lớn bị bỏ qua.
Các chuyên gia an ninh mạng khuyến cáo rằng, để giảm thiểu rủi ro khi sử dụng AI, yếu tố quan trọng hàng đầu là phải duy trì vai trò giám sát của con người và tận dụng các mô hình có khả năng lập luận tích hợp. Điều này đồng nghĩa với việc mọi khuyến nghị do AI đưa ra đều cần được con người xác nhận trước khi áp dụng. Chẳng hạn, nếu AI gợi ý nâng cấp một phần mềm như Chrome, thì chuyên gia phải trực tiếp kiểm tra xem giải pháp này có phù hợp với tình trạng hệ thống thực tế hay không. Chu trình xác thực liên tục này giúp tránh những sai lầm có thể kéo theo hệ quả dây chuyền.
Bên cạnh đó, việc đào tạo nhân sự cũng giữ vai trò then chốt. Các đội ngũ an ninh phải được rèn luyện để nhận diện khi nào kết quả của AI có dấu hiệu bất thường và duy trì thói quen dừng lại để đặt câu hỏi, ngay cả khi công cụ đã từng đưa ra những kết quả chính xác trước đó. Một giải pháp hữu hiệu là cải tiến giao diện phát hiện mối đe dọa, nhấn mạnh dữ liệu trọng yếu để hướng sự chú ý của con người vào những yếu tố thực sự quan trọng, thay vì hoàn toàn dựa theo gợi ý của AI. Cuối cùng, việc giảm “nhiễu nền” trong hệ thống cũng rất cần thiết, bởi vì nhiều sai sót của AI có thể bị khuếch đại trong môi trường ngập tràn cảnh báo do hệ thống chưa vá lỗi hoặc cấu hình sai. Làm sạch “nhiễu” này giúp cả con người lẫn AI tập trung vào những mối nguy cấp bách nhất.
Không thể phủ nhận, công nghệ AI đang làm thay đổi cục diện an ninh mạng toàn cầu, khi vừa là công cụ mạnh mẽ để phòng thủ, vừa là vũ khí nguy hiểm trong tay tội phạm. Trong tương lai, các công cụ AI có thể sẽ tiếp tục biến đổi cách thức vận hành an ninh mạng, nhưng ở thời điểm hiện tại, rủi ro vẫn quá lớn để có thể tin tưởng tuyệt đối vào công nghệ này. Đáng nói, deepfake, spearphishing hay ảo giác AI mới chỉ là “phần nổi của tảng băng”. Thách thức lớn nhất không dừng ở công nghệ, mà nằm ở cách thức quản trị an toàn - làm sao để khai thác AI như một nguồn lực phục vụ phát triển, thay vì trở thành nạn nhân của nó.