Dùng AI kiểm soát bình luận trên mạng xã hội
Nhóm sinh viên Trường Đại học Công nghệ Thông tin, Đại học Quốc gia TPHCM phát triển thành công ứng dụng trí tuệ nhân tạo (AI) tự động cảnh báo các bình luận có nội dung xúc phạm, phản cảm trên mạng xã hội với độ chính xác 81%.

Hoàng Gia Phú (phải), thành viên nhóm nhận giải Giải thưởng Thiết kế - Chế tạo - Ứng dụng do Thành đoàn TPHCM với sản phẩm phần mềm kiểm soát bình luận. Ảnh: NVCC
Quản lý bình luận xấu độc
Phần mềm kiểm soát bình luận xấu độc trên mạng xã hội được phát triển bởi 4 sinh viên Khoa Khoa học và Kỹ thuật Thông tin, Trường Đại học Công nghệ Thông tin (Đại học Quốc gia TPHCM): Hoàng Gia Phú, Lưu Đức Cảnh, Trần Quốc Khánh và Võ Thiện Đông Dương. Ứng dụng sử dụng kỹ thuật xử lý ngôn ngữ tự nhiên (NLP) nhằm hạn chế những bình luận tiêu cực, giúp người quản lý theo dõi nội dung trên các diễn đàn tốt hơn.
Từ quá trình dùng mạng xã hội, Hoàng Gia Phú chia sẻ: Em nhận thấy rõ bên cạnh những bình luận tích cực, không gian mạng cũng tồn tại nhiều lời lẽ tiêu cực, thậm chí xúc phạm người khác. “Nhiều người cho rằng đó là quyền tự do ngôn luận để nêu quan điểm cá nhân, nhưng khi những bình luận đi quá xa, chúng có thể gây ra hệ lụy khó lường”, Phú nói.
Theo nhóm nghiên cứu, nếu một người tiếp xúc thường xuyên với các nội dung phản cảm, xúc phạm, tâm lý của họ sẽ bị ảnh hưởng nặng nề, thậm chí dẫn đến hành vi tiêu cực nếu họ là mục tiêu chính của các phát ngôn công kích trên mạng. Đối với người đọc bình luận, việc đọc những nội dung xấu độc thường xuyên có thể tạo ra tâm lý mất niềm tin vào xã hội, dễ tập trung vào điểm xấu của người khác, hoặc có xu hướng nhìn nhận sự việc theo hướng tiêu cực, công kích người khác dù trước đây không có thói quen này.
Phân tích sâu hơn, Phú nhớ lại giai đoạn cao điểm dịch Covid-19, thông tin về một giáo viên tiêm 2 mũi vắc-xin cùng lúc đã gây ra phản ứng trái chiều. Một bộ phận dư luận cho rằng nữ giáo viên này thiếu hiểu biết, trong khi những người khác lại chỉ trích cơ quan y tế khu vực thiếu trách nhiệm.
“Tất cả ý kiến này đều mang tính tiêu cực, xúc phạm cả cô giáo, cơ quan y tế và nhà trường. Nhiều người đã đẩy vấn đề đi quá xa, gây hoang mang dư luận trong khi bản chất chỉ là sự việc hy hữu”, Phú chia sẻ. Nam sinh cho rằng, cần có công cụ để quản lý những bình luận mang tính cực đoan, tiêu cực nhằm làm sạch môi trường mạng.
Với kiến thức đã học, Phú cùng nhóm bạn đã bắt tay phát triển phần mềm kiểm soát bình luận. Nhóm sử dụng hai công cụ PhoBERT và Text CNN (PhoBERT-CNN) cùng với AI để xử lý ngôn ngữ tự nhiên. Công cụ này được huấn luyện để phân loại các bình luận tiếng Việt có tính chất xấu độc, xúc phạm người khác hoặc phản cảm.

Giao diện quản lý bình luận trên bài viết của website. Ảnh: NVCC
Độ chính xác cao
Để kiểm chứng mô hình, nhóm đã sử dụng bộ dữ liệu ViHSD của một nhóm chuyên gia Việt Nam, chứa hơn 33.000 dữ liệu từ Facebook và YouTube. Dữ liệu này được xử lý qua hai bước tiền xử lý trước khi đưa vào hệ thống PhoBERT-CNN. Kết quả cho thấy mô hình đạt độ chính xác 81% trong việc phát hiện bình luận tiêu cực.
Nhờ phương pháp tiền xử lý dữ liệu, các bình luận không dấu, viết tắt, pha tạp tiếng Anh, hay teencode... đều được “làm sạch” trước khi cho máy học, mang lại kết quả đáng kỳ vọng. “Tuy nhiên, hệ thống chưa nhận diện được các bình luận mang tính nói bóng gió”, Phú thừa nhận. Anh cho rằng, nhược điểm này có thể được khắc phục khi bổ sung thêm dữ liệu và huấn luyện hệ thống.
Mặt khác, ngôn ngữ trên mạng xã hội thay đổi liên tục, đòi hỏi người quản lý phải cập nhật các dạng ngôn ngữ mới. Theo nhóm sinh viên, cần có một chuyên gia am hiểu mạng xã hội và theo kịp các phong cách ngôn ngữ từ giới trẻ để thực hiện công việc này. Nhóm đã thử nghiệm giả lập một trang báo điện tử. Khi có bình luận tích cực, hệ thống sẽ phân loại và gán nhãn “sạch”.
Ngược lại, với bình luận tiêu cực, hệ thống sẽ nhận diện và đề xuất ẩn bình luận, đồng thời tô đậm khu vực chứa từ ngữ phản cảm. Thời gian tới, nhóm dự kiến thử nghiệm ứng dụng trên các trang mạng xã hội trong trường để đánh giá hiệu quả và tiếp tục phát triển.
Ngoài việc phát hiện nội dung tiêu cực, mô hình này còn có thể ứng dụng trong các lĩnh vực giáo dục, y tế, tâm lý học... khi người quản lý muốn nắm bắt quan điểm cộng đồng về một vấn đề cụ thể thông qua các bình luận trái chiều. Sản phẩm cũng có thể giúp người quản lý đánh giá được sự quan tâm và xu hướng của cộng đồng đối với chủ đề nào đó, làm căn cứ để đưa ra thông tin khách quan, công bằng, giúp định hướng dư luận tốt hơn.
Đánh giá về sản phẩm trên, PGS.TS Nguyễn Ngọc Lâm - nguyên Phân Viện trưởng Phân Viện Nghiên cứu Điện tử, Tin học và Tự động hóa (Bộ Công Thương) cho rằng, đây là sản phẩm hay và hoàn toàn có thể ứng dụng nếu được hoàn thiện về công nghệ. Ông nhận định, nhóm đã có các bước tiền xử lý dữ liệu để nâng cao độ chính xác của hệ thống.
Tuy nhiên, PGS Lâm lưu ý ngôn ngữ tiếng Việt rất phức tạp, có nhiều tiếng lóng, cùng một từ nhưng nhiều nghĩa khác nhau, và một từ có thể phù hợp trong ngữ cảnh này nhưng lại phản cảm trong ngữ cảnh khác. “Nhóm cần quan tâm hơn đến vấn đề này để phát triển giải pháp với khả năng phân tích tối ưu hơn và cần thử nghiệm nhiều hơn trong thực tế để đánh giá”, PGS Lâm chia sẻ.
Theo một thống kê, năm 2019, mạng xã hội Facebook phải gỡ bỏ 21 triệu bình luận vi phạm tiêu chuẩn cộng đồng. Tương tự, YouTube phải gỡ 1,8 triệu bình luận có nội dung xúc phạm và con số này ngày càng tăng. Một khảo sát của Microsoft về 21 hành vi không đúng mực trên không gian mạng tại Việt Nam cho thấy, 97% người được khảo sát từng bị tổn thương bởi các bình luận xấu độc và 83% lo lắng tình trạng này sẽ lặp lại.