Không thể để AI chết non vì sợ hãi
Việc lồng ghép các quy định AI vào hàng chục đạo luật khác nhau sẽ tạo ra sự phân mảnh, mâu thuẫn, và thiếu một cơ quan quản lý tập trung.
Ngày 21.11.2025 là cột mốc đáng nhớ: Chính phủ trình Dự án Luật Trí tuệ nhân tạo (AI) trước Quốc hội. Việc này không chỉ thể hiện quyết tâm chính trị của Chính phủ Việt Nam, và AI không còn là câu chuyện công nghệ đơn thuần mà trở thành một vấn đề pháp lý, kinh tế và xã hội cấp bách.
Tuy nhiên, cuộc tranh luận về hình thức lập pháp vẫn đang gay gắt: Nên có một đạo luật riêng như đang đề xuất, hay chỉ cần lồng ghép các quy định vào các luật hiện hành?
Phải khẳng định rằng, việc xây dựng một đạo luật riêng, tập trung, là bước đi duy nhất và cần thiết để đảm bảo sự phát triển có trách nhiệm và cạnh tranh toàn cầu cho AI Việt Nam. Sợ hãi trước tốc độ của công nghệ không nên biến thành nỗi sợ hãi đối với việc kiến tạo một khung pháp lý vững chắc. Ngược lại, chính sự mơ hồ về pháp lý mới là nguyên nhân thực sự khiến "AI chết non" vì thiếu định hướng và niềm tin.
Việc "lồng ghép" là lựa chọn không tương xứng
Một số ý kiến phản biện đề xuất rằng, thay vì tạo ra một luật riêng có nguy cơ chồng chéo, chúng ta nên sửa đổi các luật hiện hành như Bộ luật Dân sự, Luật Bảo vệ Dữ liệu Cá nhân, hay Luật An toàn thông tin mạng. Luận điểm này nghe có vẻ hợp lý nhưng lại bỏ qua bản chất ngang (horizontal) và sâu rộng của AI. AI không phải là một ngành công nghiệp đứng độc lập như viễn thông hay y tế; nó là một công cụ ứng dụng xuyên suốt, được tích hợp vào mọi lĩnh vực khác. Nó là "công nghệ nền" hoặc "công nghệ ngang" giống như điện năng hay Internet.
Vấn đề cốt lõi của AI là "hố đen trách nhiệm" - tình trạng không thể xác định được chủ thể chịu trách nhiệm một cách rõ ràng khi hệ thống AI gây ra thiệt hại. Pháp luật truyền thống được thiết kế để xử lý trách nhiệm của con người (hành vi cố ý, vô ý) hoặc các pháp nhân đã được định danh.
Nhưng AI, đặc biệt là các mô hình Học sâu - Deep Learning, sử dụng Mạng nơ-ron nhân tạo với nhiều lớp (multi-layered neural networks) để mô phỏng cách bộ não con người học hỏi - là một "hộp đen" tạo ra quyết định độc lập, có khả năng học hỏi và tiến hóa ngoài sự kiểm soát trực tiếp của con người. Điều này tạo ra sự bế tắc về pháp lý:
Bộ luật Dân sự có thể điều chỉnh bồi thường thiệt hại, nhưng không thể định nghĩa trách nhiệm pháp lý của hệ thống thuật toán, hay cơ chế giải trình đối với một quyết định được tạo ra bởi máy học.

Lồng ghép các quy định AI vào hàng chục đạo luật khác nhau sẽ tạo ra sự phân mảnh, mâu thuẫn, và thiếu một cơ quan quản lý tập trung.
Luật Bảo vệ Dữ liệu Cá nhân chỉ tập trung vào việc bảo vệ dữ liệu, nhưng không thể điều chỉnh các hành vi thiên vị thuật toán phát sinh từ dữ liệu đã được xử lý hợp pháp, hay việc sử dụng AI trong các lĩnh vực nhạy cảm như chấm điểm công dân, tuyển dụng.
Lồng ghép các quy định AI vào hàng chục đạo luật khác nhau sẽ tạo ra sự phân mảnh, mâu thuẫn, và thiếu một cơ quan quản lý tập trung. Điều này không mang lại sự rõ ràng mà chỉ thêm phức tạp và gánh nặng tuân thủ cho doanh nghiệp. Việt Nam cần một chuẩn mực pháp lý thống nhất làm kim chỉ nam.
Dự thảo Luật AI mà Chính phủ vừa trình Quốc hội đã chọn phương pháp quản lý rủi ro dựa trên cấp độ, tương tự EU AI Act. Phương pháp này yêu cầu một hệ thống phân loại, đánh giá sự phù hợp, và giám sát kỹ lưỡng đối với các hệ thống AI rủi ro cao.
Việc thiết lập và vận hành cơ chế quản lý rủi ro phức tạp này, bao gồm việc cấp chứng nhận, thẩm định bởi bên thứ ba, và yêu cầu hồ sơ kỹ thuật chi tiết, không thể được quy định một cách hiệu quả trong các điều khoản bổ sung của các luật chuyên ngành khác. Nó đòi hỏi một đạo luật riêng để xác định rõ ràng bốn cấp độ rủi ro và hậu quả pháp lý tương ứng; thiết lập một cơ quan quản lý AI tập trung có thẩm quyền ban hành tiêu chuẩn và giám sát thực thi; quy định rõ ràng về trách nhiệm giải trình đối với các nhà cung cấp AI rủi ro cao, tạo ra sự tin tưởng tuyệt đối từ người tiêu dùng và thị trường.
Đạo luật riêng là nền tảng cho sự khai phóng
Việc ban hành một đạo luật riêng về AI không phải là hành động thắt chặt, mà là hành động xây dựng nền tảng niềm tin và thu hút đầu tư.
Trong cuộc đua AI toàn cầu, các quốc gia không chỉ cạnh tranh về công nghệ mà còn cạnh tranh về khung pháp lý minh bạch. Khi Việt Nam có một Luật AI độc lập, rõ ràng, đây sẽ là một thông điệp mạnh mẽ gửi đến các nhà đầu tư và tập đoàn công nghệ xuyên quốc gia. Họ sẽ biết rõ "luật chơi" ngay từ đầu, giảm thiểu rủi ro pháp lý và sẵn sàng đầu tư vào một thị trường đã được điều chỉnh có trách nhiệm.
Một đạo luật riêng giúp định hình "văn hóa AI" của Việt Nam (theo đề xuất của Đại biểu Bùi Hoài Sơn), đảm bảo rằng sự phát triển công nghệ không đi ngược lại các giá trị đạo đức, văn hóa, và bản sắc dân tộc, qua đó củng cố sự chấp nhận của xã hội đối với AI.
Lo ngại về việc luật bị "lỗi thời" là hoàn toàn chính đáng. Tuy nhiên, vấn đề không nằm ở việc có luật riêng hay không, mà nằm ở cách thức thiết kế đạo luật đó.
Luật AI cần phải được xây dựng theo mô hình luật khung. Nghĩa là, luật sẽ chỉ quy định các nguyên tắc cốt lõi mang tính công nghệ trung lập, không cố gắng định nghĩa chi tiết về kỹ thuật (ví dụ: nguyên tắc minh bạch, trách nhiệm giải trình, giám sát của con người). Trên thực tế, dự thảo Luật AI đang được Quốc hội xem xét cũng được xây dựng trên tinh thần là một luật khung.
Các chi tiết kỹ thuật, tiêu chuẩn an toàn, và quy trình chứng nhận sẽ được ủy quyền cho các văn bản dưới luật (Nghị định, Thông tư) do Chính phủ hoặc bộ ban hành. Các văn bản này có thể được cập nhật nhanh chóng, linh hoạt, theo kịp tốc độ phát triển của công nghệ mà không làm mất đi tính ổn định của luật gốc.
Chỉ một đạo luật riêng mới có đủ thẩm quyền và không gian để thiết lập cơ chế "hộp cát pháp lý" rộng rãi (Regulatory Sandbox) một cách chính thức. Cơ chế này cho phép các doanh nghiệp thử nghiệm các sản phẩm AI đột phá, rủi ro cao trong môi trường kiểm soát, được miễn trừ tạm thời khỏi các quy định hành chính cứng nhắc. Đây chính là van an toàn giúp các startup và các dự án nghiên cứu không bị chết non vì vướng phải các rào cản pháp lý cũ kỹ ngay từ giai đoạn đầu.
Tầm nhìn thúc đẩy chứ không chỉ quản lý
Việc Chính phủ trình Luật AI ra Quốc hội là cơ hội để Việt Nam khẳng định tầm nhìn quốc gia: Luật pháp phải là bệ phóng, không phải rào cản.
Một đạo luật riêng, thông qua việc quản lý rủi ro một cách có hệ thống, sẽ giải phóng các nhà phát triển khỏi sự lo sợ pháp lý mơ hồ. Nó khuyến khích đầu tư vào hạ tầng dữ liệu, tính toán hiệu suất cao (HPC), và thúc đẩy việc thành lập Quỹ AI Quốc gia (một nội dung quan trọng cần được tích hợp) để tài trợ cho các dự án đột phá.
Tóm lại, để AI Việt Nam thực sự "cất cánh", chúng ta cần một nền tảng pháp lý vững chắc, rõ ràng và có định hướng chiến lược. Đạo luật Trí tuệ nhân tạo riêng biệt chính là nền tảng đó. Đó là hành động dũng cảm, cần thiết để chuyển đổi từ việc sợ hãi rủi ro sang việc quản lý rủi ro một cách chủ động, mở ra cánh cửa khai phóng cho một kỷ nguyên AI có trách nhiệm và đầy tiềm năng.

































