Những cảnh báo mới của Europol về tội phạm lợi dụng trí tuệ nhân tạo
Trong bối cảnh trí tuệ nhân tạo (AI) phát triển mạnh mẽ, những lợi ích mà công nghệ này mang lại cho xã hội là không thể phủ nhận. Tuy nhiên, đi cùng với đó là những nguy cơ tiềm ẩn khi AI bị lợi dụng cho mục đích phạm tội. Theo cảnh báo mới nhất từ Europol, các tổ chức tội phạm ngày càng sử dụng AI để tiến hành các hoạt động phạm pháp, tạo ra những thách thức lớn cho các cơ quan điều tra trên toàn cầu.
AI - công cụ hỗ trợ đắc lực cho tội phạm
Báo cáo mang tên “Đánh giá mối đe dọa của tội phạm có tổ chức và nghiêm trọng tại EU” (EU-SOCTA) năm 2025 của Cảnh sát châu Âu (Europol) mới công bố hồi cuối tháng 3 đã cảnh báo về các mối đe dọa do AI và tiền điện tử gây ra. Europol cho rằng, blockchain và AI sẽ "thúc đẩy tội phạm nghiêm trọng và có tổ chức phát triển” trong những năm tới và thậm chí AI có thể tự động “mở đường cho các mạng lưới tội phạm phát triển và kiểm soát chúng”.
Giám đốc điều hành Europol Catherine De Bolle mô tả báo cáo này là "lời cảnh tỉnh" cho lực lượng thực thi pháp luật châu Âu nói riêng và trên toàn thế giới nói chung. "Đây là cuộc chiến vì pháp quyền, vì cộng đồng, vì doanh nghiệp và vì tương lai con em chúng ta. Chúng ta sẽ không thể để tội phạm có tổ chức quyết định luật chơi", bà Catherine De Bolle tuyên bố.

Trụ sở Europol đặt tại The Hague - Hà Lan.
Trong EU-SOCTA, Europol còn nêu rõ rằng, tội phạm đã biết nắm bắt cơ hội mà AI mang lại như một "chất xúc tác" để đẩy nhanh các hoạt động phạm pháp của chúng. "Những tiến bộ nhanh chóng về công nghệ, đặc biệt là AI đang định hình lại cách thức tội phạm được tổ chức, thực hiện và che giấu. Những thay đổi này đang khiến tội phạm có tổ chức trở nên nguy hiểm hơn, đặt ra thách thức chưa từng có đối với an ninh của các quốc gia thành viên EU và khắp thế giới", Europol đánh giá mối đe dọa trong báo cáo dài 80 trang.
Chưa hết, cảnh sát châu Âu còn chỉ rõ rằng, việc sử dụng AI và các công nghệ khác đang giúp tội phạm trong toàn bộ danh mục đầu tư, hoạt động của chúng, từ buôn bán ma túy, buôn bán người, đến tội phạm mạng và trộm cắp danh tính. Sau khi được tạo ra, AI đã cho phép các băng nhóm tội phạm gia tăng việc tấn công mục tiêu của chúng trên toàn cầu bằng nhiều ngôn ngữ và thậm chí tạo ra cả hình ảnh lạm dụng tình dục trẻ em.
"Những bức ảnh rõ ràng là của người lớn tuổi nhưng có thể bị chỉnh sửa để khiến cá nhân trông trẻ hơn hoặc các ứng dụng có thể làm mờ những hình ảnh không rõ ràng. Những tính năng làm nên “cuộc cách mạng” AI như khả năng tiếp cận, tính linh hoạt và sự tinh vi… lại khiến nó trở thành một công cụ hấp dẫn đối với tội phạm", Europol lưu ý, đồng thời cho rằng, AI đang mở ra những cơ hội mới cho tội phạm trên nhiều lĩnh vực, từ lừa đảo tài chính, giả mạo danh tính đến tấn công mạng và sản xuất nội dung sai lệch…
Một trong những hình thức phổ biến nhất hiện nay là Deepfake - công nghệ cho phép tạo ra hình ảnh, video hoặc giọng nói giả nhưng có độ chân thực cao. Những kẻ lừa đảo sử dụng Deepfake để giả mạo lãnh đạo doanh nghiệp, yêu cầu chuyển tiền hoặc đánh cắp thông tin quan trọng. Việc này không chỉ gây thiệt hại kinh tế mà còn làm xói mòn lòng tin trong xã hội.

Báo cáo mang tên “Đánh giá mối đe dọa của tội phạm có tổ chức và nghiêm trọng tại EU” (EU-SOCTA) năm 2025 của Cảnh sát châu Âu (Europol) mới công bố hồi cuối tháng 3.
Hồi tháng 2, Europol đã công bố việc bắt giữ 25 người liên quan đến việc điều hành một nền tảng trực tuyến sử dụng AI để tạo và phân phối tài liệu lạm dụng tình dục trẻ em trên toàn thế giới. “Đây là một trong những trường hợp đầu tiên thuộc loại này và đã có khó khăn do không có cơ quan lập pháp quốc gia nào giải quyết các tội phạm do AI tạo ra như vậy”, Europol cho biết.
Bên cạnh đó, AI còn bị khai thác trong việc tạo ra mã độc và công cụ tấn công mạng tinh vi hơn. Trước đây, các hacker cần có kiến thức chuyên sâu về lập trình để thực hiện một cuộc tấn công. Nhưng với AI, ngay cả những tội phạm không có nền tảng kỹ thuật cũng có thể tạo ra các phần mềm độc hại hoặc tấn công hệ thống một cách tự động, gây ra những hậu quả nghiêm trọng. Một lĩnh vực khác mà AI đang bị tội phạm lợi dụng là tạo nội dung sai lệch để thao túng dư luận và gây mất ổn định chính trị. Những bot AI có thể tạo ra hàng loạt bài đăng trên mạng xã hội nhằm lan truyền tin giả, làm nhiễu loạn thông tin hoặc định hướng dư luận theo mục đích của một nhóm lợi ích nào đó….
Khó khăn của cơ quan điều tra
Sự phát triển nhanh chóng của AI đang đặt ra nhiều thách thức đối với các cơ quan thực thi pháp luật. Một trong những trở ngại lớn nhất là tính ẩn danh của các hoạt động phạm tội sử dụng AI. Tội phạm có thể dễ dàng ẩn mình sau những thuật toán phức tạp, khiến việc truy vết và xác định danh tính trở nên khó khăn hơn bao giờ hết. Hơn nữa, các công cụ AI được sử dụng để phạm tội ngày càng tinh vi và khó bị phát hiện. Ví dụ, các phần mềm Deepfake không ngừng được cải tiến để vượt qua những hệ thống nhận diện truyền thống, khiến cho việc xác minh tính xác thực của hình ảnh và video trở thành một bài toán nan giải. Ngoài ra, AI còn có khả năng tạo ra các đoạn hội thoại giả mạo, khiến cho việc điều tra dựa trên các cuộc gọi hay tin nhắn trở nên kém hiệu quả hơn.

Ví dụ về mẫu làm giả trong quá trình tạo ảnh deepfake.
Isabella Chase, Trưởng phòng Chính sách EMEA tại TRM Labs, nói với tờ Decrypt rằng việc sử dụng AI có thể làm tăng thêm hàng triệu USD vào chi phí hoạt động của tội phạm có tổ chức, nhưng sẽ có thêm nhiều tội phạm áp dụng AI trong những năm tới khi chúng thử nghiệm các cách khác nhau để khai thác công cụ thông minh này cho những mục đích cụ thể. "Tội phạm sẽ sử dụng AI để nhắm mục tiêu và tiếp cận nạn nhân dễ hơn cho dù đó là cá nhân hay tổ chức", bà Isabella Chase chia sẻ và cho biết thêm rằng, AI sẽ được tội phạm sử dụng để "rửa tiền theo chương trình nhiều riêng và có thể giúp chúng dễ dàng kiếm lợi nhanh hơn".
Thực tế, sự phát triển như vũ bão của công nghệ cũng khiến các cơ quan chức năng gặp nhiều khó khăn hơn trong việc thu hồi được những khoản lợi bất chính. Trong báo cáo EU-SOCTA, Europol thống kê rằng, việc tịch thu tiền, tài sản của các tổ chức tội phạm ngày càng trì trệ, chậm chạp và đang ở mức chỉ được 2% với thách thức "càng trầm trọng hơn do tội phạm khai thác tài sản kỹ thuật số ngày càng nhiều". Cụ thể, các nhóm tội phạm đang sử dụng tiền điện tử để rửa tiền và chuyển tiền, khiến việc theo dõi và cuối cùng là tịch thu trở nên khó khăn.
"Việc tội phạm khai thác tiền điện tử như một phương thức thanh toán hiện đã vượt ra ngoài phạm vi tội phạm mạng và ngày càng xuất hiện nhiều hơn trong các lĩnh vực tội phạm truyền thống như buôn bán ma túy hoặc buôn người. Mức độ ẩn danh, tốc độ và sự tinh vi cao hiện đang được các mạng lưới tội phạm sử dụng có khả năng sẽ gia tăng mạnh mẽ tăng lên trong những năm tới, nhất là toán lượng tử sẽ cho phép tội phạm dễ dàng bẻ khóa công nghệ mã hóa hiện tại” báo cáo có đoạn viết. Đặc biệt, Europol còn nêu ra viễn cảnh đen tối về các băng nhóm tội phạm do AI điều hành.

EU-SOCTA 2025, nêu bật những thách thức do các mạng lưới tội phạm ngày càng tinh vi gây ra.
Giải pháp và trách nhiệm của các bên liên quan
Một điểm đáng lưu ý nữa là, khả năng AI tự động hóa nhiều quá trình tấn công cho tội phạm khiến số lượng vụ việc gia tăng đột biến, gây quá tải cho các cơ quan điều tra. Khi những cuộc tấn công mạng, lừa đảo tài chính hay tạo tin giả diễn ra trên quy mô lớn, lực lượng thực thi pháp luật khó có thể phản ứng kịp thời. Một vấn đề khác là khoảng trống pháp lý trong việc xử lý các tội phạm sử dụng AI. Hiện nay, nhiều quốc gia chưa có khung pháp lý rõ ràng về trách nhiệm của các bên liên quan khi AI bị sử dụng cho mục đích xấu nên cũng gây khó khăn trong việc truy tố và xử lý các đối tượng phạm tội.
Vì thế, Europol đã kêu gọi sự phối hợp chặt chẽ giữa các quốc gia và tổ chức trên thế giới nhằm đối phó với mối đe dọa này. Một số giải pháp quan trọng được đề xuất bao gồm: Phát triển công nghệ phát hiện AI độc hại: Các cơ quan chức năng cần đầu tư vào công nghệ nhận diện Deepfake, phân tích hành vi bất thường trên không gian mạng và cải thiện khả năng truy vết tội phạm sử dụng AI; tăng cường hợp tác quốc tế; hoàn thiện khung pháp lý: các quốc gia cần nhanh chóng xây dựng và cập nhật luật pháp để quy định rõ trách nhiệm của những cá nhân, tổ chức phát triển và sử dụng AI một cách phi pháp; nâng cao nhận thức cộng đồng: người dân và doanh nghiệp cần được trang bị kiến thức để nhận diện và phòng tránh các thủ đoạn lừa đảo sử dụng AI.

Europol trong những năm gần đây liên tục bày tỏ lo ngại về tội phạm có tổ chức sử dụng al để gia tăng hoạt động phạm pháp.
Ngoài ra, trách nhiệm không chỉ thuộc về chính phủ và cơ quan điều tra mà còn đặt lên vai các công ty công nghệ. Những doanh nghiệp phát triển AI cần có cơ chế kiểm soát chặt chẽ để đảm bảo sản phẩm của họ không bị lợi dụng vào mục đích xấu. Các nền tảng mạng xã hội cũng cần cải thiện thuật toán để phát hiện và ngăn chặn các nội dung giả mạo. Chỉ khi có chiến lược toàn diện và sự chung tay của tất cả các bên liên quan, chúng ta mới có thể kiểm soát được nguy cơ từ AI và đảm bảo một môi trường số an toàn cho tất cả mọi người.