Doanh nghiệp sử dụng AI có trách nhiệm sẽ mang lại lợi thế thương mại
Giáo sư Toby Walsh - Đại học New South Wales, Australia đã có những chia sẻ về việc sử dụng AI có trách nhiệm và đạo đức bên lề Tọa đàm 'AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới.'

Giáo sư Toby Walsh - Đại học New South Wales, Australia, Viện sĩ của Hiệp hội Máy tính Hoa Kỳ đã chia sẻ về việc sử dụng Ai có trách nhiệm và đạo đức. (Ảnh: Minh Sơn/Vietnam+)
Tọa đàm "AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới" trong khuôn khổ Tuần lễ Khoa học - Công nghệ VinFuture 2025 quy tụ các nhà khoa học, nhà chính trị và nhà phát minh để thảo luận về phát triển AI có trách nhiệm, hướng đến các giá trị nhân văn.
Bên lề tọa đàm, Giáo sư Toby Walsh - Đại học New South Wales (Australia), Viện sỹ của Hiệp hội Máy tính Hoa Kỳ chia sẻ về việc sử dụng AI có đạo đức và trách nhiệm
Sử dụng AI có trách nhiệm nên là điều bắt buộc
- Theo Giáo sư, việc sử dụng AI có trách nhiệm nên là việc được thực hiện tự nguyện hay bắt buộc? Và thực tế thì chúng ta nên ứng xử như thế nào với AI?
Giáo sư Toby Walsh: Tôi tin chắc rằng việc sử dụng AI có trách nhiệm nên là bắt buộc. Hiện nay có nhiều động cơ lệch lạc, với số tiền khổng lồ được tạo ra nhờ AI và cách duy nhất để đảm bảo hành vi đúng đắn là áp dụng các quy định nghiêm ngặt, để lợi ích cộng đồng luôn được cân bằng với lợi ích thương mại.
- Giáo sư có thể cho ví dụ cụ thể từ các quốc gia khác nhau về việc ứng dụng AI có trách nhiệm và đạo đức không?
Giáo sư Toby Walsh: Một ví dụ điển hình là những quyết định có tính hệ trọng, chẳng hạn như việc xét xử và định mức án ở Hoa Kỳ, nơi một hệ thống AI được dùng để đưa ra đề xuất về thời hạn tù và khả năng tái phạm của một người.
Đáng tiếc là hệ thống này được huấn luyện trên dữ liệu lịch sử và vô tình phản ánh những định kiến về chủng tộc trong quá khứ, dẫn đến phân biệt đối xử với người da đen. Chúng ta không nên để những hệ thống như vậy quyết định việc bỏ tù ai đó.
- Khi AI mắc lỗi, ai sẽ chịu trách nhiệm? Đặc biệt là với các tác nhân AI, liệu chúng ta có khả năng sửa cơ chế hoạt động của chúng hay không?
Giáo sư Toby Walsh: Vấn đề cốt lõi khi AI mắc sai lầm là chúng ta không thể bắt AI chịu trách nhiệm. AI không phải là con người và đây là lỗ hổng trong mọi hệ thống pháp luật trên thế giới. Chỉ con người mới bị chịu trách nhiệm cho các quyết định và hành động của mình.
Bỗng nhiên, chúng ta có một "tác nhân" mới là AI, có thể - nếu chúng ta cho phép - ra quyết định và thực hiện hành động trong thế giới của chúng ta, điều này đặt ra một thách thức: chúng ta sẽ bắt ai chịu trách nhiệm?
Câu trả lời là phải bắt các công ty triển khai và vận hành hệ thống AI chịu trách nhiệm về hậu quả mà những "cỗ máy" này gây ra.

Giáo sư Toby Walsh - Đại học New South Wales chia sẻ tại Tọa đàm "AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới" trong khuôn khổ Tuần lễ Khoa học - Công nghệ VinFuture 2025. (Ảnh: Minh Sơn/Vietnam+)
- Nhiều doanh nghiệp cũng nói về AI có trách nhiệm. Làm sao chúng ta có thể tin tưởng họ? Làm sao chúng ta biết rằng họ thực sự nghiêm túc và toàn diện, chứ không chỉ lấy việc "AI có trách nhiệm" làm chiêu trò truyền thông?
Giáo sư Toby Walsh: Chúng ta cần tăng cường minh bạch. Điều quan trọng là phải hiểu năng lực và giới hạn của các hệ thống AI. Chúng ta cũng nên "bỏ phiếu bằng cách hành động" tức là lựa chọn sử dụng những dịch vụ có trách nhiệm.
Tôi thực sự tin rằng cách doanh nghiệp sử dụng AI có trách nhiệm sẽ trở thành yếu tố phân biệt trên thị trường, mang lại lợi thế thương mại cho chính họ. Nếu một công ty tôn trọng dữ liệu khách hàng, điều đó sẽ mang lại lợi ích và thu hút khách hàng.
Các doanh nghiệp sẽ nhận ra rằng làm đúng không chỉ là vấn đề đạo đức mà còn giúp họ thành công hơn. Tôi xem đây là cách để phân biệt giữa các doanh nghiệp, và những doanh nghiệp có trách nhiệm là những nơi mà chúng ta có thể yên tâm hợp tác.
'Nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn đô hộ số'
- Việt Nam là một trong số ít những quốc gia đang xem xét ban hành Luật trí tuệ nhân tạo. Giáo sư đánh giá như thế nào về việc này? Theo đánh giá của giáo sư thì với những quốc gia đang phát triển như Việt Nam thì đâu là những thách thức đối với vấn đề đạo đức và an ninh an toàn trong việc phát triển AI? Giáo sư có khuyến nghị gì cho Việt Nam để Việt Nam đạt được mục tiêu trong chiến lược AI đã đặt ra - đạt Top đầu khu vực và thế giới về nghiên cứu và làm chủ AI?
Giáo sư Toby Walsh: Tôi rất vui khi Việt Nam là một trong số quốc gia tiên phong sẽ có Luật chuyên biệt về Trí tuệ nhân tạo. Điều này quan trọng bởi mỗi quốc gia đều có giá trị và văn hóa riêng và cần luật pháp để bảo vệ những giá trị đó.
Giá trị và văn hóa của Việt Nam khác với Australia, khác với Trung Quốc và khác với Hoa Kỳ. Chúng ta không thể trông chờ các công ty công nghệ từ Trung Quốc hay Mỹ sẽ tự động bảo vệ văn hóa, ngôn ngữ Việt Nam. Những điều đó phải do chính Việt Nam chủ động bảo vệ.

Giáo sư Toby Walsh cảnh báo nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn đô hộ số. (Ảnh: Minh Sơn/Vietnam+)
Tôi rất lưu ý rằng trong quá khứ, nhiều quốc gia đang phát triển đã trải qua giai đoạn bị đô hộ về mặt vật lý. Nếu không cẩn thận, chúng ta có thể sẽ trải qua giai đoạn "đô hộ số." Dữ liệu của các bạn sẽ bị khai thác và các bạn sẽ trở thành nguồn lực rẻ tiền.
Điều này có nguy cơ xảy ra nếu các quốc gia đang phát triển phát triển ngành AI theo cách chỉ khai thác dữ liệu mà không kiểm soát cũng như bảo vệ quyền lợi của mình.
- Vậy thì làm sao để khắc phục được tình trạng này, thưa Giáo sư?
Giáo sư Toby Walsh: Rất đơn giản, hãy đầu tư vào con người. Nâng cao kỹ năng cho mọi người, đảm bảo họ có hiểu biết về AI. Hỗ trợ các doanh nhân, doanh nghiệp AI, hỗ trợ các trường đại học. Hãy tham gia một cách chủ động. Thay vì chờ đợi các quốc gia khác chuyển giao công nghệ hay định hướng cho chúng ta, chúng ta phải chủ động và làm chủ công nghệ.
Quan trọng hơn, chúng ta cần vận động mạnh mẽ các nền tảng mạng xã hội để họ tạo ra môi trường an toàn cho người dùng tại Việt Nam, đồng thời không ảnh hưởng đến nền dân chủ của đất nước.
Trên thực tế, có rất nhiều ví dụ cho thấy các nội dung trên mạng xã hội đã tác động đến kết quả bầu cử, gây chia rẽ nội bộ các quốc gia và thậm chí kích động khủng bố.
- AI rất phát triển ở Việt Nam. Trong thời gian qua, Việt Nam có rất nhiều chính sách để đẩy mạnh AI, nhưng Việt Nam cũng đang phải đối mặt với một vấn nạn, đó là tình trạng lừa đảo do AI gây ra. Vậy theo Giáo sư, Việt Nam nên xử lý tình trạng này như thế nào?
Giáo sư Toby Walsh: Với từng cá nhân, tôi nghĩ cách đơn giản nhất là xác minh thông tin. Ví dụ, khi nhận được một cuộc điện thoại hay email, chẳng hạn từ ngân hàng, chúng ta cần đối chiếu lại: có thể gọi lại cho số thuê bao đó hoặc liên hệ trực tiếp ngân hàng để xác thực thông tin. Ngày nay, có rất nhiều email giả, số điện thoại giả, thậm chí cuộc gọi qua Zoom cũng có thể bị giả mạo. Những thủ đoạn lừa đảo này rất đơn giản, không tốn kém mà cũng không mất nhiều thời gian.
Trong gia đình tôi, chúng tôi còn có một cách bảo mật riêng: một "câu hỏi mật" chỉ người trong nhà mới biết, ví dụ như tên chú thỏ cưng ở nhà. Điều này đảm bảo rằng thông tin quan trọng chỉ được giữ trong gia đình và không bị lộ ra ngoài.
- Xin trân trọng cảm ơn ông./.
Giáo sư Toby Walsh là học giả danh dự ARC và GS Scientia (danh hiệu dành cho các nhà khoa học trẻ có năng lực xuất sắc) về trí tuệ nhân tạo (AI) tại Đại học New South Wales Sydney (UNSW). Ông là một trong những người ủng hộ mạnh mẽ việc đặt giới hạn để đảm bảo AI được sử dụng nhằm cải thiện cuộc sống của con người.
Ông cũng là hội viên của Học viện khoa học Úc và được vinh danh trong danh sách quốc tế "những người có ảnh hưởng trong lĩnh vực AI."


































