Hàng loạt vụ 'fake' hình ảnh của AI tạo ra: Mắt thấy, tai nghe, đừng vội tin

Thời gian qua, liên tục những hình ảnh 'fake' do AI tạo ra được lan truyền trên mạng, vậy giải pháp nào để ngăn chặn mặt tối của công nghệ này?

Trong thời đại công nghệ phát triển nhanh chóng, trí tuệ nhân tạo (AI) đang ngày càng đóng vai trò quan trọng trong mọi lĩnh vực của cuộc sống. AI đã tạo ra nhiều tiện ích và thay đổi cách con người tiếp cận thông tin. Tuy nhiên, cùng với những lợi ích vượt trội, AI cũng mang đến nhiều thách thức mới, đặc biệt là về vấn đề sự thật giả lẫn lộn do AI tạo ra.

Hàng loạt vụ ảnh "fake" từ trí tuệ nhân tạo AI

Mới đây, vụ việc ông trùm nhạc hip hop Sean Diddy Combs bị bắt giữ bởi các cáo buộc gồm: Âm mưu tống tiền, buôn bán tình dục bằng vũ lực, môi giới hoạt động mại dâm... là một ví dụ.

Đáng chú ý là sau vụ bắt giữ và truy tố, có thông tin cho rằng các đặc vụ FBI đã tìm thấy hơn 1.000 chai dầu trẻ em cùng nhiều thứ khác tại nơi ở của Diddy ở Miami và Los Angeles. Đồng thời, xuất hiện một đoạn video cho thấy các đặc vụ mặc đồng phục đứng trong một căn phòng bị lục tung, chứa đầy những chai dầu trẻ em được người dùng X tên Sir Maejor chia sẻ vào ngày 18/9.

Dù khá mờ nhưng đoạn clip này đã thu hút hàng triệu lượt xem, khiến dư luận phẫn nộ và ghê tởm với mục đích của nam rapper này.

Clip phát hiện 1.000 chai dầu trẻ em ở nhà Diddy là giả.

Clip phát hiện 1.000 chai dầu trẻ em ở nhà Diddy là giả.

Tuy nhiên sau khi xác minh đoạn video này, không có cơ quan truyền thông lớn hay tổ chức liên bang nào đang tham gia vào điều tra vụ án của Diddy công bố hình ảnh này. Đồng thời khi kiểm chứng bằng phần mềm phát hiện AI, đoạn video đang lan truyền này chỉ là giả mạo, một sản phẩm của AI.

Vào năm 2023, Một nhóm các nhà nghiên cứu tại Alibaba (Trung Quốc) đã phát triển một công nghệ mới có thể tạo ra video giả mạo của bất kỳ ai chỉ từ một bức ảnh. Công nghệ này được gọi là “Animate Anyone” và có thể tạo ra video chất lượng cao đến mức khó phân biệt được với video thật.

Sự phát triển của Animate Anyone đã từng gây ra nhiều lo ngại và nhận được không ít sự chỉ trích vì cho rằng đây là công nghệ giúp tiếp tay cho kẻ xấu.

Mới nhất là sự phổ biến của “Deepfake” - công nghệ sử dụng âm thanh và video máy tính AI có thể tạo ra một đoạn clip hoàn toàn không có thực. Bằng cách thu thập dữ liệu từ hàng ngàn hình ảnh và video của một cá nhân, AI có thể tổng hợp và tái hiện một cách chân thực những biểu cảm, cử chỉ và thậm chí giọng nói của người đó trong những ngữ cảnh hoàn toàn khác.

Điều này cho phép tạo ra những video mà người xem khó có thể nhận ra là giả, gây ảnh hưởng tới hình ảnh, danh dự của người khác. Một trong số các nạn nhân tiêu biểu nhất bị ảnh hưởng bởi công nghệ này chính là ngôi sao điện ảnh Scarlett Johansson.

"Không gì có thể ngăn cho kẻ xấu cắt dán hình ảnh của tôi hay bất kỳ ai khác vào cơ thể của một người nào đó, khiến cho chúng trông giống hệt như thật. Thực tế, việc cố gắng bảo vệ bản thân khỏi internet và sự đồi trụy trên đó là không thể. Internet thực sự là một lỗ đen khổng lồ đang tự nuốt chửng chính nó" , Scarlett Johansson chia sẻ.

Ông Nguyễn Quang Đồng, Viện trưởng Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS) nhấn mạnh rằng: “Công nghệ AI có thể bị lợi dụng để phát tán thông tin sai lệch trên mạng xã hội, gây hoang mang dư luận. Các video, hình ảnh giả mạo có thể được sử dụng để bóp méo sự thật, gây thiệt hại về mặt xã hội và chính trị”.

Tại Việt Nam, cũng đã xuất hiện rất nhiều trường hợp sử dụng AI làm giả mạo hình ảnh nhằm mục đích lừa đảo và gây hiểu nhầm cộng đồng mạng.

Mới đây, nhằm lợi dụng hoàn cảnh bão lũ để kiếm tương tác, MXH đã xuất hiện bức ảnh một người thanh niên mặc trang phục rằn ri kèm áo phao, bế một em nhỏ. Đằng sau hai người là khung cảnh tan hoang, nhà cửa bị tàn phá do bão lũ ở một vùng miền núi.

Kết quả là, ngoài một số ít bình luận cảnh tỉnh đây chỉ là sản phẩm AI, có không ít người dùng mạng xã hội đã nhiệt liệt hưởng ứng và chia sẻ, tăng tương tác cho tài khoản này.

Bức ảnh là sản phẩm của công nghệ AI.

Bức ảnh là sản phẩm của công nghệ AI.

Ngoài ra, một số tài khoản còn liên tục chia sẻ hình ảnh các em bé nằm trong bùn sâu, người ngợm lấm lem, gợi ra sự thương cảm sâu sắc từ nhiều người – mặc dù đây chỉ là hình ảnh do AI tạo ra.

Hiện vẫn chưa rõ mục tiêu thật sự của những người tạo ra loại nội dung này là câu like, câu view, câu tương tác bất chấp, hay còn có ý đồ lợi dụng lòng thương cảm cho mục đích gì khác.

Làm gì để ngăn chặn "mặt tối" của công nghệ AI

Theo TS. Lê Hoài Quốc, chuyên gia về trí tuệ nhân tạo và công nghệ thông tin, cho rằng: “AI không chỉ đặt ra thách thức về mặt công nghệ mà còn đặt ra nhiều câu hỏi lớn về mặt đạo đức và pháp lý”.

Ông nhấn mạnh rằng “Việt Nam cần sớm xây dựng một khung pháp lý cụ thể để điều chỉnh việc sử dụng các công nghệ tạo nội dung giả, bao gồm cả hình ảnh và video do AI tạo ra. Hiện tại, việc xử lý các hành vi sử dụng công nghệ này cho mục đích xấu còn nhiều lỗ hổng và cần sự phối hợp giữa các cơ quan chức năng, từ lĩnh vực pháp luật đến công nghệ”.

Thứ trưởng Bộ Tư pháp, ông Nguyễn Khánh Ngọc thông tin: “Bộ Tư pháp đang nghiên cứu kinh nghiệm quốc tế về khuôn khổ chính sách, pháp luật đối với trí tuệ nhân tạo và sẽ tiếp tục các nghiên cứu khác trong thời gian tới”.

Một hình ảnh khác do AI tạo ra.

Một hình ảnh khác do AI tạo ra.

Hiện nay cũng đã có rất nhiều chương trình được phát triển nhằm kiểm tra, nhận dạng AI, có thể kể đến như: Công nghệ Blockchain; Ứng dụng Microsoft Video Authenticator; Nền tảng Sensity AI hay ứng dụng Deepware Scanner. Đây đều là các ứng dụng và công cụ giúp người dùng phát hiện và xác thực hình ảnh liệu có phải do AI tạo ra hay không.

Ông Ngô Tuấn Anh, Phó Chủ tịch phụ trách An ninh mạng của Tập đoàn BKAV, đã nhấn mạnh tầm quan trọng của việc giáo dục cộng đồng về các rủi ro liên quan đến công nghệ deepfake.

“Mặc dù các công cụ phát hiện deepfake có thể giúp phần nào ngăn chặn sự lan truyền của các video, hình ảnh giả, nhưng việc nâng cao nhận thức của người dùng về những dấu hiệu để nhận biết nội dung giả là vô cùng quan trọng. Chúng ta cần một chiến dịch giáo dục rộng rãi về các rủi ro của công nghệ này", ông nhấn mạnh.

Ông Nguyễn Văn Cường, Giám đốc Trung tâm an ninh mạng BKAV cho rằng: “Nguyên nhân là do người dùng không được cập nhật thường xuyên các chiêu trò lừa đảo của kẻ xấu; không có đầy đủ kiến thức và kinh nghiệm để phân biệt video và hình ảnh thật và giả mạo; thiếu tính cảnh giác, quá dễ dàng tin tưởng khi tham gia hoạt động trên mạng xã hội”.

Trong bối cảnh công nghệ AI ngày càng phát triển và việc tạo ra hình ảnh, video giả mạo trở nên phổ biến, người đọc và người dùng trực tuyến cần biết cách tự xác thực thông tin để tránh bị lừa đảo hoặc tiếp nhận thông tin sai lệch. Đây là một kỹ năng quan trọng trong thời đại số, giúp mỗi người trở thành người tiêu dùng thông tin có trách nhiệm và không vô tình tiếp tay cho kẻ xấu làm hại hình ảnh, danh dự của người khác.

Trường An

Nguồn Công Thương: https://congthuong.vn/hang-loat-vu-fake-hinh-anh-cua-ai-tao-ra-mat-thay-tai-nghe-dung-voi-tin-349103.html
Zalo