Sử dụng AI có trách nhiệm: Yêu cầu cấp thiết trong kỷ nguyên số

Việc phát triển và ứng dụng trí tuệ nhân tạo (AI) đang giúp cho nền kinh tế ngày càng phát triển, nhưng đồng thời cũng đặt ra những thách thức về đạo đức, pháp lý và quyền con người. Trong bối cảnh đó, xây dựng một hệ sinh thái AI có trách nhiệm trở thành yêu cầu cấp thiết, không chỉ ở Việt Nam mà trên toàn cầu.

Chỉ trong vòng vài năm trở lại đây, AI đã len lỏi vào nhiều lĩnh vực đời sống như y tế, giáo dục, tài chính, báo chí và giải trí. Những ứng dụng như chatbot, phần mềm chấm điểm tự động, sáng tác nội dung, dịch thuật… ngày càng phổ biến và tiện ích.

Tuy nhiên, song hành với đó, AI cũng đặt ra nhiều vấn đề đáng lo ngại về đạo đức, quyền riêng tư và tính minh bạch. AI có thể bị con người lợi dụng để tạo ra nội dung sai lệch, củng cố định kiến từ dữ liệu lệch chuẩn, xâm phạm đời tư, làm gia tăng bất bình đẳng và thậm chí trở thành công cụ thao túng.

Đơn cử như trong lĩnh vực báo chí, sự can thiệp của AI vào quá trình viết, biên tập và xuất bản bài viết đặt ra câu hỏi về tính chính xác, nguồn gốc thông tin và trách nhiệm nghề nghiệp. Không ít nhà báo bày tỏ lo ngại rằng nếu không có biên giới rõ ràng giữa nội dung do người viết và nội dung do máy tạo ra, niềm tin công chúng với báo chí có thể bị xói mòn. Hay AI bị lợi dụng để trở thành vũ khí lợi hại, được tội phạm mạng sử dụng trong các chiêu trò lừa đảo tinh vi đã được phản ánh rất nhiều trong thời gian gần đây.

Một trong những rào cản hiện nay là nhận thức và năng lực triển khai đạo đức AI còn hạn chế. Nhiều chương trình đào tạo AI vẫn chỉ tập trung vào công nghệ, hướng dẫn dùng thuật toán, mà chưa tích hợp nội dung về đạo đức, trách nhiệm và an toàn khi sử dụng. Để khắc phục, một số tổ chức đã triển khai đào tạo chuyên sâu về đạo đức và chính sách AI trang bị cho học viên nền tảng kiến thức và thực tiễn về quản trị AI có trách nhiệm, đồng thời cập nhật những xu hướng quốc tế mới nhất trong việc áp dụng AI một cách minh bạch, công bằng và bền vững.

Tiếp cận toàn diện để giúp sử dụng AI có trách nhiệm, an toàn và hiệu quả

Tiếp cận toàn diện để giúp sử dụng AI có trách nhiệm, an toàn và hiệu quả

Bên cạnh việc giáo dục, cần xây dựng được một hệ thống pháp lý rõ ràng về việc sử dụng AI có trách nhiệm để ngăn ngừa những hệ lụy mà công nghệ này mang lại. Một số quốc gia trên thế giới hiện đang hoàn thiện khung pháp lý về đạo đức với trí tuệ nhân tạo. Đơn cử như Liên minh châu Âu (EU) đã đi đầu trong việc xây dựng khung pháp lý toàn diện cho AI thông qua Đạo luật về AI (EU AI Act). Trong đó, có những quy định về phân loại rủi ro, nhấn mạnh đến việc cấm sử dụng AI cho các mục đích được xem là quá nguy hiểm như ứng dụng có khả năng xâm hại nghiêm trọng đến quyền con người hoặc an ninh quốc gia… Việt Nam có thể tham khảo cách tiếp cận này để xây dựng bộ nguyên tắc AI riêng, có khả năng thích ứng linh hoạt, đồng thời vẫn bảo đảm bảo vệ các giá trị đạo đức và thúc đẩy lợi ích quốc gia.

Thực tế, Việt Nam cũng đã có những bước đi bắt kịp xu hướng toàn cầu trong quản trị AI. Cụ thể, chúng ta hiện đã có một số khung pháp lý liên quan về AI như Luật Dữ liệu, Quyết định số 127/QĐ-TTg của Thủ tướng Chính phủ: Ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030… Bộ Khoa học và Công nghệ xây dựng Bộ nguyên tắc và hướng dẫn về AI có trách nhiệm, phù hợp với văn hóa và pháp luật Việt Nam. Năm 2024, Bộ ban hành tài liệu hướng dẫn phát triển hệ thống AI lấy con người làm trung tâm, cân bằng giữa lợi ích và rủi ro. Năm 2025, Bộ tiếp tục ban hành Công văn 557/BKHCN-CĐSQG, hướng dẫn công chức, viên chức sử dụng mô hình ngôn ngữ lớn (chatbot AI) trong công việc, yêu cầu sử dụng thận trọng, đúng pháp luật, có trách nhiệm và kiểm tra kỹ kết quả trước khi áp dụng.

Hiệp hội Phần mềm và Dịch vụ công nghệ thông tin Việt Nam đã thành lập Ủy ban Đạo đức AI, hướng tới xây dựng hệ sinh thái AI đổi mới sáng tạo trong khuôn khổ đạo đức, bảo vệ giá trị xã hội và tăng tính cạnh tranh toàn cầu.

Tuy nhiên, giới chuyên gia cho rằng, vẫn còn nhiều khoảng trống trong quản lý AI. Đơn cử, khi AI tạo ra tác phẩm văn học, âm nhạc hoặc nội dung số thay con người, ai sẽ chịu trách nhiệm nếu sản phẩm vi phạm bản quyền hoặc lan truyền thông tin sai lệch? Đây là bài toán mà các nhà lập pháp tại nhiều quốc gia, trong đó có Việt Nam, đang nỗ lực nghiên cứu và tìm lời giải.

Để đảm bảo AI được sử dụng một cách có trách nhiệm, cần có cách tiếp cận toàn diện; kết hợp giữa khung pháp lý, giáo dục và nâng cao nhận thức cộng đồng, nhằm biến công nghệ này thành động lực phát triển thay vì nguồn gốc rủi ro.

Danh Nguyên

Nguồn TBNH: https://thoibaonganhang.vn/su-dung-ai-co-trach-nhiem-yeu-cau-cap-thiet-trong-ky-nguyen-so-165611.html
Zalo