Australia: Luật sư dùng thông tin sai lệch do AI cung cấp trong vụ án giết người
Hôm 15.8, báo chí Australia đưa tin, một luật sư cao cấp tại nước này đã xin lỗi thẩm phán vì sử dụng trích dẫn giả mạo do trí tuệ nhân tạo (AI) tạo ra và phán quyết không tồn tại trong một vụ án giết người tại nước này.
Sai lầm xảy ra tại Tòa án Tối cao bang Victoria. Luật sư bào chữa Rishi Nathwani, người giữ danh hiệu pháp lý danh giá King's Counsel, đã nhận "hoàn toàn trách nhiệm" vì “nộp thông tin không chính xác” trong đơn kiện vụ án một thiếu niên bị buộc tội giết người.
Hãng tin AP là cơ quan báo chí đã được xem hồ sơ từ tòa án liên quan đến vụ việc, tường thuật luật sư Nathwani thay mặt nhóm luật sư bào chữa nói với Thẩm phán James Elliott: "Chúng tôi vô cùng xin lỗi và xấu hổ về những gì đã xảy ra".
Những sai sót do AI tạo ra đã khiến việc giải quyết vụ án mà thẩm phán Elliott hy vọng sẽ kết thúc vào hôm thứ 4 vừa qua bị trì hoãn 24 giờ. Hôm thứ 5, thẩm phán Elliott phán quyết rằng thân chủ của Nathwani (không công bố tên) không phạm tội giết người do bị suy giảm chức năng tâm thần.
Các văn bản trình bày những thông tin không chính xác, có thể là giả mạo, hoặc có thể do AI tạo ra, bao gồm các trích dẫn bịa đặt từ một bài phát biểu trước cơ quan lập pháp tiểu bang và các trích dẫn vụ án không tồn tại được cho là từ Tòa án Tối cao.
Các cộng sự của thẩm phán Elliott đã phát hiện ra những sai sót này, họ không tìm thấy các vụ án và yêu cầu luật sư bào chữa cung cấp bản sao.
Theo tài liệu tòa án, các luật sư thừa nhận rằng các trích dẫn "không tồn tại" và hồ sơ đệ trình có chứa "những trích dẫn hư cấu".
Các luật sư giải thích rằng họ đã kiểm tra các trích dẫn ban đầu là chính xác và đã sai lầm khi cho rằng các trích dẫn khác cũng sẽ chính xác. Các tài liệu này cũng đã được gửi đến một công tố viên, nhưng công tố viên này đã không kiểm tra tính chính xác của các tài liệu do luật sư gửi đến.
Tòa án Tối cao Australia đã ban hành hướng dẫn cách luật sư sử dụng AI vào năm 2024. Theo thẩm phán Elliott, luận sư chỉ được chấp nhận sử dụng AI, khi kết quả của việc sử dụng đó được xác minh độc lập và kỹ lưỡng.
Tài liệu của tòa án không cho biết các luật sư đã sử dụng hệ thống AI nào trong vụ việc này. Trường hợp này là một trong rất nhiều tai nạn mà AI đã gây ra cho hệ thống tư pháp trên toàn thế giới và đang báo động đến việc dùng AI thiếu trách nhiệm khi ngành công nghiệp AI đang phát triển nhanh chóng và được cho rằng đang nằm ngoài sự kiểm soát của người dùng.
Năm 2023, vụ án một người dân kiện hãng hàng không Avianca tại Mỹ đã gây ồn ào về việc dùng AI. Các luật sư đã nộp một bản tóm tắt chứa các trích đoạn giả mạo và trích dẫn vụ án lên tòa án New York. Bản tóm tắt này đã được nghiên cứu bằng ChatGPT, nhưng các luật sư lại không kiểm tra xem các vụ án có thực sự tồn tại hay không.
Sau khi phát hiện ra lỗi, tòa án đã bác bỏ vụ kiện của thân chủ, thẩm phán liên bang đã phạt hai luật sư và một công ty luật 5.000 USD vì hành động thiếu thiện chí, và phơi bày hành động của họ trước sự giám sát của công chúng. Các biện pháp khắc phục của họ khi đó đã tránh được các trừng phạt khắc nghiệt hơn, nhưng vẫn đủ để khuyến cáo người dùng các công cụ AI khi tìm kiếm các lịch sử pháp tránh trường hợp dùng các trường hợp giả mạo cho AI cung cấp khi lập luận trong các biện hộ, tranh cãi.
Cũng trong năm 2023, nhiều phán quyết tòa án giả mạo do AI tạo ra đã được trích dẫn trong các hồ sơ pháp lý do các luật sư của Michael Cohen, cựu luật sư riêng của Tổng thống Mỹ Donald Trump, đệ trình. Cohen nhận trách nhiệm, nói rằng ông không nhận ra rằng công cụ Google mà ông đang sử dụng cho nghiên cứu pháp lý cũng có khả năng gây ra cái gọi là ảo giác AI.
Các vụ án dùng thông tin giả do AI cung cấp gần đây được ghi nhận tại Canada và Vương quốc Anh.

Nhiều công cụ AI đang được sử dụng rộng rãi trong các ngành nghề. Ảnh minh họa: AI Gpt Journal
Khi ngành công nghiệp AI ngày một phát triển, rất nhiều sản phẩm không thật được tạo ra và tràn lan trên mạng internet, như hình ảnh deepfake, thông tin sai lệch, được chính AI tạo ra và tồn tại tên không gian mạng, và được người dùng vô tình hay cố ý sử dụng.
Ngành công nghiệp AI có một khái niệm “Ảo giác AI” mô tả hiện tượng các hệ thống AI, đặc biệt là các mô hình ngôn ngữ lớn, tạo ra các kết quả đầu ra không chính xác, vô nghĩa hoặc thiếu cơ sở thực tế. Những kết quả do AI đưa ra này được trình bày như thể đó là sự thật, mặc dù đây đều là do AI bịa ra hoặc dựa trên lập luận sai lệch. Đây là một trong những thách thức rất lớn đối với người dùng trong bối cảnh các công cụ AI, tác vụ AI đang nở rộ và được khuyến khích sử dụng rộng rãi ở nhiều ngành nghề.
Trong vài năm gần đây, AI cũng tác động mạnh mẽ đến hệ thống pháp luật, dấy lên lo ngại những người tham gia trong hệ thống pháp luật sử dụng những thông tin sai lệch, không có thật, được AI tạo ra để tranh cãi và ra quyết định trong các vụ tranh chấp pháp lý. Việc này thật sự đang gây ra các vấn đề về mặt pháp lý và đạo đức, đe dọa làm suy yếu niềm tin vào hệ thống pháp luật toàn cầu.
Các cơ quan quản lý pháp lý và tòa án đã phản ứng theo nhiều cách khác nhau. Một số tòa án và luật sư tiểu bang tại Mỹ đã ban hành hướng dẫn, ý kiến hoặc lệnh về việc sử dụng AI, từ việc áp dụng có trách nhiệm đến lệnh cấm hoàn toàn. Trong khi đó, các hiệp hội luật sư ở nhiều nước, cũng như các tòa án đã đưa ra các hướng dẫn dùng AI trong ngành pháp lý, trong khi chờ đợi một khung pháp lý tổng hợp hoàn chỉnh cho công cụ AI mới đầy hấp dẫn nhưng cũng không ít rủi ro này.
Lan Chi tổng hợp