OpenAI chặn chiến dịch sử dụng AI theo dõi dư luận mạng xã hội
OpenAI, công ty đứng sau ChatGPT, vừa công bố triệt phá một nhóm người dùng âm mưu sử dụng công nghệ trí tuệ nhân tạo để phát triển công cụ giám sát mạng xã hội.
Theo OpenAI, chiến dịch này có tên là "Peer Review" (Đánh giá ngang hàng), đã lợi dụng ChatGPT để gỡ lỗi và chỉnh sửa mã nguồn cho một chương trình nhằm theo dõi các luồng dư luận nhất định trên các nền tảng như X, Facebook, YouTube và Instagram.
Startup AI Mỹ cho biết, các tài khoản bị chặn có thời gian hoạt động theo giờ hành chính tại Trung Quốc đại lục, sử dụng tiếng Trung và nhập liệu thủ công với khối lượng lớn. Nhóm này còn dùng ChatGPT để hiệu đính tài liệu để gửi đến cơ quan, tổ chức quốc tế.
Phần lớn mã nguồn của công cụ giám sát này dường như dựa trên phiên bản mã nguồn mở của một trong những mô hình Llama do Meta phát triển.
Điều tra cũng cho thấy, nhóm này dường như đã sử dụng ChatGPT để tạo ra một báo cáo đánh giá hiệu suất cuối năm, trong đó tuyên bố đã viết email lừa đảo thay mặt cho các khách hàng.

Tội phạm mạng cũng gia tăng ứng dụng AI để thực hiện hành vi xấu trên Internet. Ảnh: NCA
Ben Nimmo, nhà điều tra chính của OpenAI cho biết, đây là lần đầu tiên họ phát hiện một công cụ AI như vậy.
"Cách nhóm này dùng mô hình của chúng tôi đã vô tình tiết lộ hoạt động của họ trên Internet," ông nói với The New York Times. OpenAI nhấn mạnh việc đánh giá tác động của hành vi này cần sự phối hợp từ nhiều bên, bao gồm các nhà cung cấp mô hình mã nguồn mở.
Theo báo cáo chi tiết về việc sử dụng AI cho mục đích độc hại và lừa đảo, OpenAI cho biết, còn phát hiện một chiến dịch đặc biệt khác có tên “Sponsored Discontent” (Nội dung được tài trợ), sử dụng ChatGPT tạo ra các bài đăng bằng tiếng Anh để chỉ trích những cá nhân, tổ chức cụ thể.
Tương tự, công nghệ của công ty cũng bị sử dụng để dịch các bài viết sang tiếng Tây Ban Nha trước khi phát tán ở khu vực Mỹ Latinh với các nội dung chỉ trích xã hội và chính trị Mỹ.
Liên quan đến tình trạng lừa đảo trực tuyến, gã khổng lồ AI cũng phát hiện chiến dịch sử dụng công nghệ để tạo và bình luận ảo trên mạng xã hội, hỗ trợ cho các nhóm lừa đảo thực hiện hành vi phạm pháp ở Campuchia.
Theo đó, những bình luận do AI tạo ra được dùng để thu hút nam giới trên Internet và lôi kéo họ vào kế hoạch đầu tư lừa đảo. Đầu tháng này, Campuchia đã lên tiếng cảnh báo về tình trạng AI đang bị sử dụng phổ biến để lừa đảo trực tuyến như cuộc gọi deepfake hay các nền tảng Internet.
Tháng 10/2024, báo cáo được Liên Hợp Quốc công bố cho thấy, tội phạm có tổ chức đã “viết kịch bản cá nhân hóa để lừa nạn nhân trong khi liên lạc theo thời gian thực bằng hàng trăm ngôn ngữ”.
Còn theo Google, email lừa đảo gửi đến các doanh nghiệp đang được viết bằng AI. FBI cũng lưu ý, AI cho phép tội phạm mạng nhắn tin cho nạn nhân nhanh chóng hơn.
Theo Fangzhou Wang, trợ lý giáo sư nghiên cứu tội phạm mạng tại Đại học Texas, các hình thức lừa đảo này ngày càng có tổ chức hơn.
Chúng tuyển dụng nhân sự từ khắp nơi trên thế giới, nhắm vào đủ loại nạn nhân. Ứng dụng hẹn hò và mạng xã hội trở thành mảnh đất màu mỡ cho kẻ lừa đảo.
Tại Mỹ, nạn nhân của lừa tình báo cáo thiệt hại gần 4,5 tỷ USD trong 10 năm qua, theo phân tích từ các báo cáo tội phạm mạng thường niên của FBI.
Trong 5 năm, tính đến cuối năm 2023, mỗi năm lừa tình lại gây tổn thất khoảng 600 triệu USD, từ năm 2021 khi con số lên tới gần 1 tỷ USD.