Lựa chọn nào cho nguyên tắc phát triển AI của Việt Nam?
Trong bối cảnh trí tuệ nhân tạo (AI) phát triển nhanh chóng, việc xây dựng các nguyên tắc quản trị và đạo đức liên quan trở thành nhiệm vụ cấp thiết...

Đối với Việt Nam, trên hành trình chuyển đổi số, việc áp dụng các nguyên tắc này cần được cân nhắc kỹ lưỡng để phù hợp với đặc thù kinh tế, xã hội và chiến lược phát triển quốc gia, bởi cân bằng giữa lợi ích quốc gia và giá trị đạo đức trong phát triển AI vẫn là một thách thức lớn. Điều này không chỉ đơn thuần là việc tuân thủ các tiêu chuẩn quốc tế, mà còn đòi hỏi Việt Nam phát triển một bộ nguyên tắc riêng, vừa khuyến khích đổi mới công nghệ, vừa đảm bảo các giá trị đạo đức và lợi ích quốc gia.
Từ cam kết đạo đức đến hợp tác quân sự
Mới đây, tờ Washington Post phát hiện rằng Google đã âm thầm cập nhật các nguyên tắc về AI, loại bỏ cam kết trước đây về việc không sử dụng AI cho mục đích phát triển vũ khí, giám sát, hoặc các công nghệ có thể gây hại cho con người. Sự thay đổi này đánh dấu một bước ngoặt quan trọng trong chính sách AI của công ty, mở ra khả năng Google tham gia vào các dự án quân sự và hợp tác với các cơ quan quốc phòng.
Trước đó, Google đã tham gia vào các hợp đồng quân sự như Project Maven vào năm 2018 - một dự án của Lầu Năm Góc sử dụng AI để phân tích hình ảnh từ máy bay không người lái (drone), và Project Nimbus vào năm 2021 - một hợp đồng điện toán đám mây quân sự với Chính phủ Israel. Những thỏa thuận này đã gây tranh cãi trong nội bộ công ty, khi nhiều nhân viên Google cho rằng chúng vi phạm các nguyên tắc AI mà công ty từng đặt ra.
Điều này đã dẫn đến những phản ứng trái chiều, với một số nhân viên bày tỏ lo ngại rằng Google có nguy cơ trở thành “kẻ xấu” khi dấn thân vào lĩnh vực quân sự. Tuy nhiên, ban lãnh đạo Google cho rằng trong bối cảnh địa chính trị ngày càng phức tạp, sự hợp tác giữa doanh nghiệp và các chính phủ dân chủ là cần thiết nhằm bảo đảm an ninh quốc gia và phát triển AI một cách có trách nhiệm.
Trong khi các tiêu chí đạo đức và an toàn luôn cần được đặt lên hàng đầu, thì các yếu tố chiến lược - từ an ninh quốc phòng đến phát triển kinh tế - cũng phải được cân nhắc kỹ lưỡng, tránh tình trạng “đẽo cày giữa đường” khi chạy theo quá nhiều áp lực hay yêu cầu khác nhau.
Việc ứng dụng AI trong phát triển vũ khí được đánh giá là rất tiềm năng, khi công nghệ này có thể được tích hợp vào các hệ thống vũ khí tự động như drone, tên lửa dẫn đường và robot chiến đấu. Những hệ thống này có khả năng tự phát hiện, theo dõi và tấn công mục tiêu chính xác mà không cần sự can thiệp trực tiếp từ con người.
Thay đổi trên đã đưa Google tiến gần hơn tới các nhà phát triển AI khác như Meta, Anthropic và OpenAI - những công ty đã cho phép một số ứng dụng công nghệ của họ được sử dụng cho mục đích quân sự.
Trước Google, OpenAI cũng đã thay đổi chính sách phát triển AI khi loại bỏ lệnh cấm “các ứng dụng phát triển vũ khí và quân sự, chiến tranh”, thay vào đó là quy định chung yêu cầu “không được sử dụng dịch vụ của chúng tôi để gây hại cho bản thân hoặc người khác”. Ngay sau đó, công ty này đã hợp tác với Anduril Industries - một công ty công nghệ quốc phòng - để phát triển và triển khai các giải pháp AI nhằm cải thiện hệ thống chống máy bay không người lái của Mỹ, nâng cao khả năng phát hiện, đánh giá và phản ứng với các mối đe dọa trên không trong thời gian thực.
Những chuyển biến này không chỉ là sự điều chỉnh chính sách nội bộ của các ông lớn công nghệ trên thế giới, mà còn phản ánh xu hướng toàn cầu khi các tập đoàn dần chấp nhận vai trò trong lĩnh vực quốc phòng. Việc hợp tác với các cơ quan quân sự cho phép khai thác tiềm năng của AI trong các ứng dụng chiến lược, từ hệ thống tự động trên drone đến các giải pháp an ninh không gian mạng, nhưng đồng thời cũng đặt ra lo ngại về sự mất cân bằng giữa an ninh quốc gia, lợi ích kinh tế và giá trị đạo đức.
Trong bối cảnh địa chính trị phức tạp hiện nay, câu hỏi đặt ra là liệu những quyết định này có thực sự đảm bảo an toàn cho con người hay chỉ đơn giản là chiến lược mở rộng tầm ảnh hưởng của các doanh nghiệp công nghệ? Trong khi đó, bên kia Thái Bình Dương, các hệ thống AI mới nổi như DeepSeek của Trung Quốc vẫn chưa ban hành một bộ nguyên tắc cụ thể trong việc sử dụng AI, tạo nên một bức tranh đa dạng trong cách thức áp dụng các nguyên tắc đạo đức AI trên toàn cầu.
Sự đa dạng trong chính sách AI toàn cầu
AI ngày càng trở nên phổ biến và có tác động sâu rộng đến mọi mặt của đời sống xã hội, quá trình xây dựng và hoàn thiện các chính sách liên quan đến AI đang chứng kiến một sự khác biệt đáng kể về định hướng, ưu tiên cũng như mối quan hệ giữa các bên liên quan. Sự phức tạp này đến từ việc các quốc gia, tổ chức quốc tế và các cơ quan quản lý phải đối mặt với những thách thức chưa từng có trong việc cân bằng giữa đổi mới sáng tạo, lợi ích kinh tế và các giá trị đạo đức căn bản. Để hướng tới một quá trình phát triển AI có trách nhiệm, nhiều tổ chức quốc tế và công ty phát triển AI đã đề xuất các bộ nguyên tắc cơ bản với một số tiêu chí chung như sau: (1) Lợi ích cho xã hội; (2) Tránh thiên vị và phân biệt đối xử; (3) An toàn và bảo mật; (4) Minh bạch và giải thích được; (5) Trách nhiệm giải trình; (6) Quyền riêng tư và bảo vệ dữ liệu; (7) Phát triển bền vững và hòa nhập.
Tại Mỹ, chính sách về AI đã trải qua nhiều biến động dưới hai chính quyền khác nhau. Dưới thời chính quyền Joe Biden, một loạt sắc lệnh hành pháp đã được ban hành với mục tiêu đảm bảo rằng sự phát triển AI phải đi đôi với trách nhiệm đạo đức, an toàn và bảo vệ quyền riêng tư. Những chính sách này hướng tới việc thiết lập một khuôn khổ pháp lý rõ ràng để giải quyết các rủi ro tiềm tàng của AI, đồng thời duy trì các lợi ích xã hội. Tuy nhiên, ngay từ những ngày đầu nhậm chức trong tháng 1-2025, Tổng thống Donald Trump, với chính sách “Nước Mỹ trên hết”, đã đảo ngược các sắc lệnh này. Chính quyền Trump theo đuổi xu hướng quản lý AI nhằm thúc đẩy đổi mới sáng tạo với ít quy định ràng buộc hơn, tạo điều kiện cho sự phát triển nhanh chóng của công nghệ và ứng dụng trong lĩnh vực quân sự.
Tại khu vực Liên minh châu Âu (EU), EU đã đi đầu trong việc xây dựng khung pháp lý toàn diện cho AI thông qua Đạo luật về AI (EU AI Act). Trong đó, có những quy định về phân loại rủi ro, nhấn mạnh đến việc cấm sử dụng AI cho các mục đích được xem là quá nguy hiểm, chẳng hạn như những ứng dụng có khả năng xâm hại nghiêm trọng đến quyền con người hoặc an ninh quốc gia. Khung pháp lý này không chỉ nhằm bảo vệ công dân EU mà còn tạo ra một chuẩn mực toàn cầu về việc phát triển và ứng dụng AI một cách có trách nhiệm, minh bạch và an toàn.
Việt Nam cũng đã có những động thái nhanh chóng bắt kịp xu hướng toàn cầu trong lĩnh vực quản trị AI. Vừa qua, Hiệp hội Phần mềm và Dịch vụ công nghệ thông tin Việt Nam đã thành lập Ủy ban Đạo đức AI, thể hiện nỗ lực trong việc xây dựng một hệ sinh thái AI nơi đổi mới sáng tạo được phát triển trong khuôn khổ đạo đức, đảm bảo khả năng cạnh tranh toàn cầu và bảo vệ các giá trị xã hội. Bộ trưởng Bộ Khoa học và Công nghệ đã ban hành Quyết định 1290/QĐ-BKHCN ngày 11-6-2024 nhằm hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm. Bên cạnh đó, dự thảo Luật Công nghiệp công nghệ số yêu cầu phải xây dựng nguyên tắc đạo đức trong phát triển, triển khai và ứng dụng AI.
Các động thái này không chỉ tạo điều kiện cho việc ứng dụng AI trong các lĩnh vực kinh tế - xã hội một cách hiệu quả mà còn giúp Việt Nam khẳng định vị thế trong cộng đồng quốc tế về một quốc gia biết ứng dụng và quản lý công nghệ tiên tiến một cách hiệu quả và đạo đức.
Sự đa dạng trong quá trình hoạch định chính sách đối với AI phản ánh những mâu thuẫn cơ bản giữa đổi mới công nghệ, lợi ích kinh tế và trách nhiệm đạo đức - những yếu tố không thể tách rời khi đối mặt với một công nghệ có tiềm năng thay đổi toàn diện cuộc sống. Trong khi các quốc gia lớn như Mỹ và EU đang từng bước hoàn thiện các khung pháp lý để định hướng phát triển AI một cách an toàn và có trách nhiệm, Việt Nam cũng đang tích cực xây dựng cơ chế quản lý và phát triển AI của riêng mình.
Không chỉ xét về giá trị đạo đức
Các nguyên tắc phát triển AI không nên được áp đặt một cách máy móc hay đơn thuần là “mèo lại hoàn mèo” từ những mô hình đã có, mà cần được điều chỉnh linh hoạt, phù hợp với bối cảnh và lợi ích quốc gia. Trong khi các tiêu chí đạo đức và an toàn luôn cần được đặt lên hàng đầu, thì các yếu tố chiến lược - từ an ninh quốc phòng đến phát triển kinh tế - cũng phải được cân nhắc kỹ lưỡng, tránh tình trạng “đẽo cày giữa đường” khi chạy theo quá nhiều áp lực hay yêu cầu khác nhau.
Trong bối cảnh toàn cầu ngày càng cạnh tranh và phức tạp, Việt Nam cần xây dựng một bộ khung nguyên tắc của chính mình, không chỉ bảo vệ các giá trị đạo đức mà còn thúc đẩy lợi ích quốc gia. Bộ nguyên tắc này phải tạo điều kiện cho sự phát triển bền vững của ngành công nghiệp công nghệ cao, đặc biệt là ngành bán dẫn. Chiến lược phát triển từ nay đến năm 2030, tầm nhìn 2050, theo công thức “C = SET + 1” (trong đó C: Chip (Chip bán dẫn); S: Specialized (Chuyên dụng, Chip chuyên dụng); E: Electronics (Điện tử, Công nghiệp điện tử); T: Talent (Nhân tài, Nhân lực); + 1: Việt Nam (Việt Nam là điểm đến mới an toàn của chuỗi cung ứng toàn cầu về công nghiệp bán dẫn). Đây không chỉ là tầm nhìn kỹ thuật mà còn là con đường định hướng chiến lược, giúp Việt Nam khẳng định vị thế trong kỷ nguyên AI toàn cầu, theo đúng tinh thần của Nghị quyết 57-NQ/TW về đột phá phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia.
(*) Khoa Luật, CELG, Đại học UEH