Ứng phó với tội phạm sử dụng AI tấn công đe dọa an ninh không gian mạng
Cần có những giải pháp chống lại các cuộc tấn công mạng khi hacker sử dụng trí tuệ nhân tạo (AI) để tối ưu hóa các phần mềm độc hại, mã độc tống tiền...
Bên cạnh lợi ích mang lại, công nghệ trí tuệ nhân tạo (AI) đang bị tội phạm mạng lợi dụng để chế tạo ra các phần mềm độc hại mới, tạo ra các cuộc tấn công lừa đảo mới tinh vi, phức tạp hơn.
Hacker sử dụng AI tạo ra các cuộc tấn công tinh vi hơn
Theo thống kê của Cục An toàn Thông tin (Bộ Thông tin và Truyền thông), trong năm 2023, thế giới ước tính thiệt hại tới 8.000 tỷ USD bởi các cuộc tấn công mạng, tương đương gần 21 tỷ USD mỗi ngày. Con số này dự kiến sẽ tăng lên 9.500 tỷ USD vào năm 2024. Năm 2025, dự báo thế giới sẽ hứng chịu tới 3.000 cuộc tấn công mạng/giây, 12 mã độc/giây và 70 lỗ hổng/điểm yếu mới sẽ được phát hiện mỗi ngày. Đây là những con số biết nói, đặc biệt trong thời kỳ bùng nổ của công nghệ AI.
Bên cạnh lợi ích mang lại, công nghệ AI đang bị tội phạm mạng sử dụng để dễ dàng chế tạo ra các phần mềm độc hại mới, tạo ra các cuộc tấn công lừa đảo mới, tinh vi, với nhiều kịch bản tấn công đa dạng; hay sử dụng công nghệ Deepfake để thực hiện các chiến dịch tấn công lừa đảo trực tuyến trên không gian mạng…
"Hiện các cuộc tấn công mạng liên tục phát triển với mức độ ngày càng tinh vi, phức tạp. Đặc biệt, khi có sự hỗ trợ của AI, nguy cơ, mối đe dọa an toàn thông tin mà chúng ta phải đối mặt sẽ ngày càng tăng theo cấp số nhân," Thứ trưởng Phạm Đức Long nhận định.
Theo Phó Cục trưởng phụ trách Cục An toàn Thông tin Trần Đăng Khoa, AI là một công nghệ lưỡng dụng được sử dụng cho cả mục đích tấn công và phòng thủ. Bên cạnh rủi ro lớn khi AI hỗ trợ các chiến dịch lừa đảo trực tuyến, ông Trần Đăng Khoa cũng chỉ ra một số rủi ro khác mà công nghệ AI đưa đến cho lĩnh vực an toàn thông tin mạng, đó là hacker sử dụng AI để tối ưu hóa các cuộc tấn công mạng, phát triển các phần mềm độc hại và đặc biệt là mã độc mã hóa dữ liệu tống tiền ransomware...
"Mối đe dọa lớn nhất là các hacker sử dụng AI để tạo ra các cuộc tấn công tinh vi hơn, tạo ra các phần mềm độc hại, dò quét và phát hiện những lỗ hổng để từ đó vượt qua các phương pháp bảo vệ và tấn công vào hệ thống thông tin," ông Khoa cho biết.
Đồng quan điểm, ông Nguyễn Anh Tuấn - Phó Giám đốc Trung tâm dữ liệu Quốc gia về dân cư, Cục Cảnh sát quản lý hành chính về trật tự xã hội (Bộ Công an), cũng cho rằng AI đang mang lại nhiều rủi ro và thách thức về cả xã hội, pháp lý và an ninh mạng. Các thách thức an ninh mạng từ AI có thể kể đến như tấn công thông qua tệp tin độc hại được hỗ trợ bởi AI, hacker dùng các công nghệ đặc biệt của AI để mô phỏng hệ thống nhằm tìm điểm yếu...
Theo ông Tuấn, hacker có thể lợi dụng AI để tạo ra nhiều ứng dụng có hình ảnh, tên giả mạo các ứng dụng, trang web của Bộ Công an để người dân tải về, cài đặt và cung cấp các thông tin cá nhân nhằm lừa đảo. AI cũng có thể sử dụng để tự động hóa các cuộc tấn công mạng, giúp chúng trở nên nhanh chóng và hiệu quả, gây thiệt hại nặng hơn. Một điều nguy hiểm nữa ông Tuấn cũng tiết lộ rằng AI sẽ tự phát triển các phân mềm, mã độc lai tạo giữa nhiều dòng mã độc, có cơ chế né tránh bảo mật tinh vi hơn, tự động thay đổi các mã nguồn linh hoạt.
Cần sớm hoàn thiện hành lang pháp lý về AI để đón đầu xu thế
Nhằm đảm bảo an toàn an ninh mạng trước sự phát triển của AI, các chuyên gia bảo mật tại Việt Nam cho biết cần sớm hoàn thiện hành lang pháp lý về AI.
Ông Trần Đăng Khoa khẳng định an toàn thông tin là yêu cầu “bắt buộc” không phải là yếu tố để "lựa chọn."
Theo đó, 100% Bộ, ngành, địa phương cần tổ chức kiểm tra, đánh giá tuân thủ quy định của pháp luật về an toàn thông tin, trong đó, ưu tiên, tập trung kiểm tra tuân thủ quy định pháp luật về bảo đảm an toàn hệ thống thông tin theo cấp độ và bảo vệ thông tin, dữ liệu cá nhân; ưu tiên kiểm tra, đánh giá đối với các đơn vị, tổ chức, doanh nghiệp đang được giao quản lý, vận hành nhiều hệ thống thông tin hoặc hệ thống thông tin quan trọng, dùng chung.
"An toàn thông tin mạng là quá trình lâu dài, các cơ quan, tổ chức, doanh nghiệp cần xác định rõ đây là ưu tiên của mình trong công tác, kinh doanh, chứ không phải là vấn đề kỹ thuật thông thường. Để đảm bảo an toàn, an ninh mạng, chúng ta cần thay đổi căn bản về nhận thức, cách làm để thích ứng một cách chủ động, linh hoạt và giảm thiểu các nguy cơ, đe dọa về an toàn, an ninh mạng, đặc biệt trong thời kỳ bùng nổ về AI," ông Khoa cho biết.
Ông Khoa cũng đã đưa ra một số kinh nghiệm, giải pháp để ứng phó trước "làn sóng" AI. Cụ thể, chúng ta phải phát triển các sản phẩm công nghệ AI một cách có trách nhiệm. Cần chuẩn hóa quy trình phát triển và đánh giá ứng dụng AI trước khi đưa ra ứng dụng trong thực tiễn. Tăng cường ứng dụng AI trong lĩnh vực an toàn, an ninh mạng.
Ông Khoa cũng nhấn mạnh việc xây dựng và áp dụng nguyên tắc, chính sách, hành lang pháp lý cho các ứng dụng AI.
Đồng tình với ông Khoa, ông Nguyễn Anh Tuấn cũng cho biết để giảm thiểu rủi ro, Việt Nam cần sớm hoàn thiện hành lang pháp lý về AI.
"Cần có quy định về đạo đức trong quá trình phát triển, sản xuất, ứng dụng và sử dụng AI tại Việt Nam; có tiêu chuẩn kỹ thuật với các hệ thống có sử dụng, ứng dụng, kết nối, cung cấp dịch vụ AI; có quy chuẩn kỹ thuật về nền tảng kết nối, chia sẻ, ứng dụng, sử dụng AI."
Ông Tuấn chia sẻ hiện nay, nhiều quốc gia trên thế giới đã nhận diện được một số nguy cơ có thể xảy ra từ việc ứng dụng AI. Theo thống kê tại legalnodes.com, tính đến nay có khoảng 33 quốc gia đã xây dựng dự thảo pháp lý về AI, tuy nhiên còn nhiều hạn chế, chưa mang tính tổng thể. Việc ban hành quy định về AI cần có mối liên hệ chặt chẽ với nhau.
Đứng ở góc độ Cục Cảnh sát quản lý hành chính về trật tự xã hội, ông Tuấn cho biết cần triển khai một số giải pháp như duy trì bảo đảm an ninh an toàn đối với các hệ thống, thực hiện tốt khâu chuân bị, thường xuyên thực hiện sao lưu, phục hồi dữ liệu, định kỳ tổ chức diễn tập ứng cứu sự cố để sẵn sàng đối phó với các tình huống tấn công bằng AI có chủ đích.
Mặt khác, chúng ta nên tăng cường theo dõi, giám sát quá trình kết nối, chia sẻ thông tin với các đơn vị để sớm phát hiện hành vi bất thường, vi phạm quy định về bảo vệ dữ liệu cá nhân trong quá trình khai thác thông tin, xử lý thông tin.
Cuối cùng là xây dựng và ứng dụng trí tuệ nhân tạo trong công tác giám sát log, phân tích lưu lượng mạng để phát hiện các hành vi bất thường có chủ đích từ AI, đồng thời kết hợp giữa học máy và ngôn ngữ tự nhiên để làm tăng độ chính xác khi đưa ra quyết định xử lý sự cố./.