Mặt trái của AI đối với an ninh toàn cầu

Cuộc đua trí tuệ nhân tạo (AI) toàn cầu đang tăng tốc mạnh mẽ tạo ra nhiều đột phá về công nghệ nhưng cũng gây nên không ít thách thức về an ninh.

Các mô hình AI không được kiểm duyệt, đang trở thành mối đe dọa nghiêm trọng đối với an ninh. (Nguồn: ASPI)

Các mô hình AI không được kiểm duyệt, đang trở thành mối đe dọa nghiêm trọng đối với an ninh. (Nguồn: ASPI)

Trang tin Viện Chính sách Chiến lược Australia (ASPI) gần đây đăng tải bài viết cho rằng cuộc đua trí tuệ nhân tạo (AI) toàn cầu đang tăng tốc mạnh mẽ, với việc các quốc gia và tập đoàn đầu tư hàng tỷ USD vào AI cho mục đích thương mại, chiến lược và quốc phòng.

Tuy nhiên, một hệ quả nguy hiểm của cuộc đua này là sự lan rộng của các mô hình AI không được kiểm duyệt, đang trở thành mối đe dọa nghiêm trọng đối với an ninh.

Những mô hình này, thường phát triển từ các mô hình ngôn ngữ lớn mã nguồn mở, không có các bộ lọc an toàn như những công cụ chính thống (ví dụ ChatGPT).

Kết quả là chúng sẵn sàng phản hồi hầu như mọi yêu cầu mà không do dự hay giới hạn đạo đức. Nếu muốn viết mã độc hay tò mò cách chế tạo chất nổ, vũ khí hoặc ma túy thì một mô hình không được kiểm duyệt nhiều khả năng sẽ cung cấp hướng dẫn chi tiết về tất cả những điều này.

Ngoài ra, nguy cơ không chỉ nằm ở khả năng của các mô hình này, mà còn ở mức độ dễ tiếp cận.

Nhiều mô hình được lưu trữ trên các nền tảng phổ biến phục vụ cả mục đích nghiên cứu hợp pháp, như Hugging Face, GitHub và Ollama, những cái tên đi đầu trong lĩnh vực AI.

Người dùng chỉ cần vài cú nhấp chuột là có thể tải về. Chỉ cần tìm từ khóa “uncensored” trên các nền tảng này là có thể thấy hàng loạt mô hình đã được tải hàng triệu lần mà không qua bất kỳ cơ chế kiểm duyệt, giám sát nào.

Việc sử dụng ngoại tuyến càng khiến các mô hình AI này khó kiểm soát hơn. Một khi đã tải về, người dùng có thể chạy các mô hình ngay trên máy tính cá nhân mà không cần kết nối mạng.

Không có máy chủ trung tâm, không có thu thập dữ liệu tự động và hầu như không có cách nào để biết liệu mô hình đó đang được dùng cho nghiên cứu học thuật, hoạt động tội phạm hay tuyên truyền cực đoan.

Các mô hình không được kiểm duyệt trở thành công cụ tiếp tay cho những đối tượng gây hại. Trước đây, để viết mã độc, tổ chức hoạt động cực đoan tinh vi hay triển khai chiến dịch tuyên truyền cần chuyên môn sâu. Giờ đây, tất cả những gì cần thiết là một mô hình AI.

Chỉ với vài yêu cầu được soạn đúng cách, ngay cả người thiếu kiến thức kỹ thuật cũng có thể nhận được các hướng dẫn chi tiết cho các hành động có hậu quả nghiêm trọng.

Điều này tạo ra sự bất đối xứng ngày càng lớn. Một kẻ xấu có trong tay mô hình AI không được kiểm duyệt có thể tái tạo sản phẩm đầu ra như của một nhóm chuyên gia.

Trong khi các chính phủ đang tập trung vào việc quản lý dữ liệu của các công ty, thì mối đe dọa từ các mô hình không được kiểm duyệt đã hiện hữu trước mắt.

Các mô hình này không thể thu hồi, nhưng quyền truy cập có thể bị hạn chế. Các chiến lược an ninh và mô hình dự báo rủi ro cần được cập nhật để thích ứng với thực tại mới. Nếu không hành động, chúng ta đang chấp nhận một rủi ro ngày càng lớn đối với an ninh quốc gia và toàn cầu.

(theo Viện Chính sách Chiến lược Australia)

Thu Hiền

Nguồn TG&VN: https://baoquocte.vn/mat-trai-cua-ai-doi-voi-an-ninh-toan-cau-316139.html
Zalo