Trí tuệ nhân tạo đối với công cuộc bảo vệ nền tảng tư tưởng của Đảng
Sự ra đời của phần mềm Chat GPT đã tạo nên cơn sốt trên toàn cầu và cả ở Việt Nam. Điều này khẳng định xu thế của cuộc Cách mạng công nghiệp lần thứ tư là không thể đảo nghịch, đang có tác động đến mọi lĩnh vực của đời sống kinh tế - chính trị thế giới.
Nguy cơ từ ai
Việt Nam cũng đang phải đối mặt với những nguy cơ trực tiếp đến từ sự bùng nổ của AI, đặc biệt là làn sóng tội phạm sử dụng công nghệ AI. Phổ biến nhất có thể kể đến Deepfake đang được các đối tượng lừa đảo sử dụng khá phổ biến. Các sản phẩm âm thanh, hình ảnh, video, clip... giả mạo do Deepfake tạo ra thường nhằm giả mạo các cơ quan chức năng hoặc người thân của mục tiêu để thực hiện việc lừa đảo. Các thông tin về số CCCD, số tài khoản ngân hàng, số điện thoại, địa chỉ, các mối quan hệ trên trang mạng xã hội (MXH)... dễ bị lộ lọt là kẽ hở lớn để các đối tượng lừa đảo nhắm tới.
Thông qua sức mạnh của AI đến từ khả năng thu thập, xử lý dữ liệu khổng lồ và phân tích các mẫu phức tạp, các đối tượng xấu có nhiều chiêu trò để thuyết phục nạn nhân tin vào nội dung lừa đảo, qua đó chiếm đoạt tài sản hoặc thực hiện các mục đích xấu khác. Trong công cuộc bảo vệ nền tảng tư tưởng của Đảng hiện nay, có thể liệt kê một số nguy cơ, thách thức từ AI như sau:
Một là, nguy cơ thế hệ trẻ lệ thuộc vào AI. Với sự phát triển của các công cụ như Chat GPT, Bing chat, AI TensorFlow, Amazon Machine Learning... giới trẻ có thể tìm hiểu, giải đáp những khúc mắc; thực hiện các bài luận, bài nghiên cứu; hỗ trợ vạch ra các ý tưởng sáng tạo. Nếu những thông tin mà các công cụ trên tổng hợp được dựa trên những nền tảng, kho dữ liệu đáng tin cậy thì kết quả được cung cấp là chính xác, song kết quả sẽ bị sai lệch nếu AI dựa trên các nền tảng thiếu tin cậy, thậm chí là những trang mạng phản động, chống phá. Đơn cử như khi một sinh viên đặt câu hỏi về Chủ tịch Hồ Chí Minh cho nền tảng Chat GPT, sẽ nhận được một bảng kê chi tiết về thân thế, cuộc đời, sự nghiệp và tư tưởng Hồ Chí Minh.
Tuy nhiên, bên cạnh những thông tin chính thống, chính xác, vẫn còn có những thông tin gây hiểu sai, chưa đúng. Trên thực tế đã xảy ra việc các đối tượng xấu lợi dụng những công cụ AI để thực hiện mưu đồ, chẳng hạn như với Chat GPT. Thủ đoạn của họ là nêu những câu hỏi không đầy đủ, không hợp lý nhằm cố tình tìm và "gài" phần trả lời sai lệch để bôi nhọ Đảng, Nhà nước ta. Đáng chú ý, nếu khi đặt câu hỏi mà Chat GPT đưa ra câu trả lời khiến "không ưng ý”, không có lý do để kích bác, miệt thị thì các đối tượng lại tìm cách thêm thắt chữ nghĩa, sửa câu hỏi, sửa cách hỏi nhằm "đánh lừa trí tuệ nhân tạo" để hòng tìm ra câu trả lời cụt, thiếu hoặc sai trái, lấy cớ để xuyên tạc.
Hai là, tác động của AI đối với tư tưởng và hành vi của người dân trong xã hội. AI được sử dụng để tạo nên các "buồng vọng âm - echo chamber". Đây là hình ảnh ẩn dụ ám chỉ một môi trường mà ở đó, người dùng chỉ được tiếp xúc với những thông tin, quan điểm đồng thuận với ý kiến của họ. Khi các thế lực thù địch, phản động thực hiện hoạt động chống phá, họ sử dụng đa nền tảng MXH với nhiều thông tin sai trái về nhiều lĩnh vực.
Người dùng chỉ cần chú ý đến một tin giả, dành thời gian đọc nhiều hơn các tin khác, ngay lập tức AI sẽ nhận định loại thông tin đó cần được ưu tiên và sẽ đề xuất nhiều nội dung tương tự. "Buồng vọng âm" khiến các định kiến và quan điểm sai lệch được củng cố mạnh mẽ hơn. Người dùng sẽ trở nên tự tin hơn về tính đúng đắn của các quan điểm đó, mặc dù thông tin này có thể không chính xác, đi ngược lại đường lối, chủ trương của Đảng, Nhà nước.
Ba là, nguy cơ về phát tán, lan truyền thông tin sai lệch, thông tin không chính thống, chưa được xác thực. Gần đây, không ít người dùng các nền tảng MXH và các trang báo điện tử đã đăng tải nội dung thông tin sai lệch với việc ứng dụng được tạo ra từ AI. Thực tế này cho thấy AI mà trực tiếp là công cụ Deepfake với những phiên bản ngày càng cao cấp sẽ dấy lên nguy cơ lớn đối với trật tự, an toàn xã hội, an ninh không gian mạng nếu mục tiêu bị giả mạo là các chính trị gia, những người có uy tín trong xã hội.
Với sự bùng nổ công nghệ, AI hoàn toàn dễ bị các thế lực thù địch, thế lực xấu lợi dụng để tạo ra những sản phẩm văn hóa, tinh thần sai trái, phản động, từ đó tạo hiệu ứng xấu, độc trong dư luận xã hội.
Bốn là, nguy cơ mất kiểm soát từ chính phủ với AI. AI có khả năng tự học và cải tiến, khiến việc kiểm soát ngày càng trở nên khó khăn hơn. Các hệ thống AI có thể phát triển khả năng mới mà con người không dự đoán trước được, dẫn đến tình trạng vượt quá tầm kiểm soát.
AI có thể bị lạm dụng bởi các tổ chức và cá nhân có ý đồ xấu, từ việc tấn công mạng, lan truyền thông tin sai lệch đến việc sử dụng trong các hoạt động quân sự và gián điệp. Khi AI trở nên mạnh mẽ hơn, việc ngăn chặn các hành động này trở nên phức tạp và yêu cầu sự hợp tác quốc tế chặt chẽ, điều này không phải lúc nào cũng dễ dàng thực hiện được bởi sự phát triển nhanh chóng của AI đang vượt qua khả năng lập pháp của nhiều chính phủ. Luật pháp và quy định thường chậm và không theo kịp tốc độ tiến bộ công nghệ.
Năm là, nguy cơ về tư cách pháp nhân của AI. Đây là vấn đề được tranh luận từ rất lâu. AI có tư cách pháp nhân hay không? Nhiều quan điểm cho rằng cần trao tư cách pháp nhân, quyền công dân, quyền tự do...cho AI. Năm 2017, Chính phủ của Arab Saudi đã trao quyền công dân cho robot Sophia do David Hanson Jr (một nhà chế tạo robot người Mỹ, đồng thời là người sáng lập và CEO của Hanson Robotics) tạo ra. Sự kiện này tạo tiền lệ và lý do cho hàng loạt quan điểm, ý kiến về cấp quyền công dân cho robot có trí tuệ nhân tạo.
Cần đồng bộ nhiều giải pháp
Từ những nguy cơ đến từ sự bùng nổ của AI đối với công cuộc bảo vệ nền tảng tư tưởng của Đảng, cần thực hiện đồng bộ một số khuyến nghị sau:
Một là, tăng cường hợp tác quốc tế về AI. Việt Nam cần chủ động và tích cực tham gia các diễn đàn quốc tế về AI, đồng thời phát huy vai trò và vị thế của mình trong việc thúc đẩy sử dụng AI một cách có trách nhiệm trong cộng đồng quốc tế, điều này tạo cơ hội để Việt Nam khẳng định vị thế trong cộng đồng quốc tế, thúc đẩy hợp tác và đối thoại nhằm bảo đảm rằng AI được phát triển và sử dụng một cách an toàn, minh bạch và hiệu quả.
Hai là, bảo đảm sự phát triển và ứng dụng AI một cách có trách nhiệm, góp phần bảo vệ nền tảng tư tưởng của Đảng, cần xây dựng các thiết chế mạnh mẽ và tăng cường quản lý nhà nước đối với các công ty công nghệ, đặc biệt là các công ty nước ngoài.
Cần ban hành luật về AI và kịp thời sửa đổi, bổ sung các văn bản pháp luật hiện hành, quy định rõ ràng về trách nhiệm, chế tài và nghĩa vụ của các công ty công nghệ. Các công ty công nghệ cần rà soát quy trình của mình, tránh tạo ra kẽ hở để các thế lực thù địch, phản động có thể lợi dụng phát tán thông tin sai lệch.
Ba là, cần tăng cường công tác tuyên truyền giáo dục và nâng cao nhận thức về AI. Việc phổ biến kiến thức về AI sẽ giúp người dùng hiểu rõ hơn về công nghệ này, từ đó họ có thể tránh các "buồng vọng âm" và thông tin sai lệch. Các chương trình giáo dục, công tác tuyên truyền cần tập trung vào việc giải thích cách thức hoạt động của các thuật toán AI, những nguy cơ tiềm ẩn của việc tiếp xúc với thông tin được cá nhân hóa quá mức và cách nhận diện thông tin giả mạo liên quan đến đường lối, chính sách của Đảng, pháp luật của Nhà nước.
Ngoài ra, cần khuyến khích người dùng tiếp cận với các nguồn thông tin đa dạng và đáng tin cậy, đồng thời phát triển kỹ năng tư duy phản biện để họ có thể đánh giá thông tin một cách chính xác, có trách nhiệm và an toàn.
Bốn là, khuyến khích sự tham gia của các doanh nghiệp, công ty và các startup khởi nghiệp về AI, làm tốt giải pháp này có thể tăng cường sự tự chủ, tránh sự lệ thuộc, mất kiểm soát đối với các công ty công nghệ nước ngoài. Qua đó, gián tiếp tăng cường sức mạnh trong bảo vệ nền tảng tư tưởng của Đảng, đặc biệt là trên không gian mạng.
Bằng cách này, các doanh nghiệp có thể đóng góp vào việc xây dựng một hệ sinh thái AI đa dạng, hướng tới phát triển bền vững, đồng thời bảo vệ nền tảng tư tưởng của Đảng bằng cách kiểm soát và thúc đẩy việc sử dụng AI một cách có trách nhiệm, an toàn.
Năm là, cần xây dựng các cơ chế giám sát và kiểm tra chặt chẽ đối với các công ty công nghệ, các tổ chức, cá nhân sử dụng sản phẩm AI. Bảo đảm rằng các công nghệ này không gây ảnh hưởng tiêu cực đến nền tảng tư tưởng của Đảng và xã hội.
Đồng thời, cần thiết kế các cơ chế kiểm tra để bảo đảm tính minh bạch và trách nhiệm trong quản lý dữ liệu và thông tin. Việc này giúp ngăn chặn việc lạm dụng dữ liệu và thông tin để lan truyền các thông tin sai lệch, gây hoang mang dư luận, ảnh hưởng tới nền tảng tư tưởng của Đảng.