AI có thể đe dọa nền dân chủ
Thông tin sai lệch có thể được triển khai trên quy mô lớn để đảo lộn cuộc bầu cử tổng thống Mỹ năm 2028, các nhà nghiên cứu trí tuệ nhân tạo (AI) nhận định.
Một nhóm chuyên gia hàng đầu về AI và thông tin trực tuyến cảnh báo rằng, các nhà lãnh đạo chính trị có thể sớm tung ra hàng loạt tác nhân AI bắt chước con người để định hình lại dư luận.
Bà Maria Ressa, nhà hoạt động vì tự do ngôn luận từng đoạt giải Nobel Hòa bình, cùng các nhà nghiên cứu hàng đầu về AI và khoa học xã hội từ Berkeley, Harvard, Yale (Mỹ), Oxford, Cambridge (Anh) nằm trong một liên minh toàn cầu cảnh báo về “mối đe dọa gây rối” mới do các “đàn AI” độc hại, khó phát hiện đang tràn lan trên mạng xã hội và các kênh nhắn tin. Họ cho rằng, một nhà độc tài tương lai có thể sử dụng những “đàn AI” này để thuyết phục người dân chấp nhận việc hủy bỏ kết quả bầu cử hoặc lật ngược kết quả, trong bối cảnh công nghệ AI có thể được triển khai trên quy mô lớn vào dịp bầu cử tổng thống Mỹ năm 2028.
Những cảnh báo đi kèm với lời kêu gọi toàn cầu phối hợp để chống lại rủi ro này, bao gồm việc sử dụng “máy quét bầy đàn” và nội dung được đánh dấu bản quyền để chống lại các chiến dịch thông tin sai lệch do AI điều khiển. Các phiên bản đầu tiên của hoạt động gây ảnh hưởng nhờ AI đã được sử dụng trong cuộc bầu cử năm 2024 tại Đài Loan (Trung Quốc), Ấn Độ và Indonesia.
“Một mối đe dọa gây rối đang nổi lên: bầy đàn các tác nhân AI độc hại, hợp tác với nhau”, các tác giả nhận định. “Các hệ thống này có khả năng tự phối hợp, thâm nhập vào cộng đồng và tạo ra sự đồng thuận một cách hiệu quả. Bằng cách bắt chước các động lực xã hội của con người, chúng đe dọa nền dân chủ”.

Theo nhiều chuyên gia, AI có thể trở thành mối đe dọa đối với nền dân chủ
Một chuyên gia hàng đầu về công nghệ tuyên truyền, bà Inga Trauthig, nhận định, việc áp dụng công nghệ tiên tiến như vậy có thể bị chậm lại do sự miễn cưỡng của các chính trị gia trong việc nhường quyền kiểm soát chiến dịch cho AI. Một nguyên nhân khác gây lo ngại là việc sử dụng các kỹ thuật bất hợp pháp như vậy sẽ không đáng để mạo hiểm, vì cử tri vẫn bị ảnh hưởng nhiều hơn bởi các tài liệu ngoại tuyến.
Thâm nhập cộng đồng, tìm ra điểm yếu
Giới chuyên gia cho rằng, các nhà lãnh đạo chính trị có thể triển khai số lượng AI gần như không giới hạn để giả dạng con người trên mạng và thâm nhập chính xác vào các cộng đồng, tìm hiểu điểm yếu của họ theo thời gian và sử dụng những lời nói dối ngày càng thuyết phục và được điều chỉnh cẩn thận để thay đổi dư luận.
Mối đe dọa đang bị khuếch đại bởi khả năng của AI trong việc nắm bắt giọng điệu và nội dung của các cuộc hội thoại. Chúng ngày càng có khả năng bắt chước các động thái của con người, ví dụ, bằng cách sử dụng tiếng lóng phù hợp và đăng bài không thường xuyên để tránh bị phát hiện. Sự tiến bộ trong việc phát triển AI “có khả năng tự chủ” cũng đồng nghĩa với khả năng lập kế hoạch và phối hợp một cách tự động.
Ngoài việc hoạt động trên mạng xã hội, chúng có thể sử dụng các kênh nhắn tin và thậm chí viết blog hoặc sử dụng email, tùy thuộc vào nền tảng mà AI cho là giúp đạt được mục tiêu tốt nhất, theo ông Daniel Thilo Schroeder, nhà khoa học tại Viện nghiên cứu Sintef ở Oslo (Na Uy) và là một trong những tác giả của nghiên cứu này. “Nếu những bot này bắt đầu phát triển thành một tập thể và trao đổi thông tin để giải quyết một vấn đề - trong trường hợp này là phân tích một cộng đồng và tìm ra điểm yếu - thì sự phối hợp sẽ làm tăng độ chính xác và hiệu quả của chúng”, một tác giả khác, ông Jonas Kunst, giáo sư truyền thông tại Trường Kinh doanh Na Uy, nói. “Đó là một mối đe dọa thực sự nghiêm trọng mà chúng tôi dự đoán sẽ trở thành hiện thực”.
“Tôi nghĩ hoàn toàn có thể xảy ra việc các thế lực xấu sẽ cố gắng huy động các đội quân ảo được hỗ trợ bởi AI để phá vỡ các cuộc bầu cử và thao túng dư luận, như nhắm mục tiêu vào một số lượng lớn cá nhân trên mạng xã hội và các phương tiện truyền thông điện tử khác” . GS Michael Wooldridge, Đại học Oxford (Anh)
“Trong năm 2024, một năm đầy biến động bầu cử, khả năng nhắm mục tiêu vi mô dựa trên AI đã có sẵn, nhưng chúng ta không thấy nhiều như các học giả dự đoán”, bà Inga Trauthig, cố vấn của Hội đồng Quốc tế về Môi trường Thông tin, nhận xét. “Hầu hết những người tuyên truyền chính trị mà tôi phỏng vấn vẫn đang sử dụng các công nghệ cũ hơn và không nắm bắt được công nghệ tiên tiến này”.
“Điều đó không phải là viển vông”, ông Michael Wooldridge, giáo sư về nền tảng của AI tại Đại học Oxford, nói. “Tôi nghĩ hoàn toàn có thể xảy ra việc các thế lực xấu sẽ cố gắng huy động các đội quân ảo được hỗ trợ bởi AI để phá vỡ các cuộc bầu cử và thao túng dư luận, như nhắm mục tiêu vào một số lượng lớn cá nhân trên mạng xã hội và các phương tiện truyền thông điện tử khác. Về mặt công nghệ, điều đó hoàn toàn khả thi…, công nghệ ngày càng tốt hơn và dễ tiếp cận hơn nhiều”.

































