Khi AI làm hại doanh nghiệp

Wolf River Electric là một nhà thầu lắp ráp điện mặt trời ở Minnesota. Họ bỗng thấy nhiều khách hàng hủy hợp đồng không rõ lý do. Sau một hồi năn nỉ, có khách tiết lộ họ nghỉ chơi với Wolf River sau khi thấy kết quả tìm kiếm trên Google cho biết công ty này bị tiểu bang Minnesota kiện vì hành vi mua bán lường gạt. Wolf River Electric sững sờ - họ chưa từng bị ai kiện, chứ nói gì chính quyền tiểu bang!

AI cũng có khả năng gây hại với các doanh nghiệp. Ảnh: SGT

AI cũng có khả năng gây hại với các doanh nghiệp. Ảnh: SGT

Lãnh đạo công ty bèn đích thân gõ vào Google tên công ty, kết quả do AI trả về nằm ở đầu trang kể chuyện công ty bị chưởng lý Minnesota kiện như thế nào, họ phải dàn xếp bên ngoài tòa ra sao, y như thật. Sau khi tìm cách gỡ thông tin sai lệch không được, họ buộc lòng phải kiện Google ra tòa về tội phỉ báng.

Đây là một trong ít nhất sáu vụ kiện trong vòng hai năm qua tại Mỹ liên quan đến nội dung do AI tạo ra sai sự thật, gây hại đến uy tín của các cá nhân và tổ chức. Các đơn kiện cáo buộc các công ty công nghệ đứng đằng sau những mô hình AI không chỉ tạo ra và phát tán thông tin sai lệch, họ còn dửng dưng như vô can sau khi được chỉ ra các sai sót của những AI này.

Theo tờ New York Times, đây là những vụ kiện chưa từng có tiền lệ bởi các vụ kiện vu khống hay phỉ báng đều nhắm vào con người. Đằng này nội dung bị kiện do máy móc tạo ra - vậy ai sẽ chịu trách nhiệm?

Một trong những vụ kiện AI nói bậy được thụ lý tại Georgia vào năm 2023. Nguyên đơn là Mark Walters, một người dẫn chương trình phát thanh và là người chủ trương ủng hộ quyền sử dụng súng. Khi một nhà báo hỏi ChatGPT về quyền sử dụng súng, ChatGPT đề cập đến Walters và nói thêm ông này từng bị cáo buộc tội tham ô. Walters kiện vì cho rằng con chatbot bịa chuyện gây tổn hại đến uy tín của ông.

Một yếu tố quan trọng trong các vụ kiện phỉ báng ở Mỹ là chứng minh có ý đồ từ trước. Nhưng vì không ai biết những gì diễn ra bên trong các thuật toán điều khiển các AI như ChatGPT, vụ kiện tập trung vào công ty viết thuật toán, trong vụ này chính là OpenAI. Luật sư của Walters nói: “Frankenstein không thể tạo ra một quái vật chạy khắp nơi mưu sát con người rồi bảo mình không hề hay biết gì”.

Vụ kiện của Walters bị tòa từ chối xử, một trong những lý do chính là vì nhà báo dù hỏi ChatGPT nhưng sau đó thừa nhận anh không tin vào lời khẳng định của ChatGPT và khi xác minh lại thì biết đây là lời bịa đặt. Vấn đề bên thứ ba có bị thuyết phục bởi lời phỉ báng là đúng hay không mang tính quyết định trong các vụ kiện như thế. Thẩm phán Tracie Cason giải thích: “Nếu cá nhân đọc lời tuyên bố dẫn tới vụ kiện không tin rằng tuyên bố đó là đúng, khi đó lời tuyên bố không mang tính phỉ báng”.

Cho đến nay chưa có vụ kiện AI nào về tội phỉ báng được đem ra xử. Nhưng ít nhất có một vụ được dàn xếp ngoài tòa. Vụ kiện này do Robby Starbuck, một nhân vật hữu khuynh vận động chống lại các chương trình đa dạng hóa trong tuyển dụng khởi xướng chống lại Meta, công ty mẹ của Facebook. Starbuck cho rằng khi đang đọc trên mạng xã hội X, trước đây là Twitter, anh ta bắt gặp một tấm hình chứa nội dung sai lệch về anh do Llama, một trong các công cụ AI của Meta tạo ra. Nội dung văn bản trong tấm hình khẳng định Starbuck có mặt tại Điện Capitol trong cuộc bạo loạn vào ngày 6-1-2021 trong khi Starbuck cho biết anh ta ở nhà tại Tennessee vào ngày đó.

Meta dàn xếp vụ kiện vào tháng 8-2025, một trong các thỏa thuận là Meta sẽ mời Starbuck làm cố vấn cho các chính sách AI của Meta. Meta không tiết lộ các thỏa thuận khác cũng như không cho biết họ có trả tiền cố vấn cho Starbuck hay không.

Một vụ kiện bên ngoài nước Mỹ do Dave Fanning, một người dẫn chương trình phát thanh, nộp tại tòa Ireland chống lại một trang web tin tức ở Ấn Độ và Microsoft. Nguyên do là trang web tin tức này dùng AI viết bài trong đó cáo buộc Dave Fanning tội quấy rối tình dục. Microsoft đăng lại bài này trên cổng tin tức MSN, có hình của Fanning và tít: “Người phát thanh Irish nổi tiếng ra tòa vì cáo buộc quấy rối tình dục”. Đây là tin bịa đặt gây xôn xao dư luận nên Danning mới biết và khởi kiện cả hai nơi.

Nina Brown, một giáo sư môn truyền thông tại Đại học Syracus, cho rằng sẽ hiếm có vụ kiện nào được đưa ra xử. Vì một phán quyết cho rằng các công ty công nghệ phải chịu trách nhiệm cho các nội dung công cụ AI của họ tạo ra sẽ dẫn đến hàng loạt vụ kiện khác từ những người phát hiện AI nói sai về họ. Bà cho rằng các công ty công nghệ sẽ tìm cách dàn xếp ổn thỏa vì rủi ro bị kiện ngập đầu là rất lớn khi ai cũng biết chatbot chuyên bịa chuyện y như thật. Vấn đề là làm sao các công ty này giảm hẳn hiện tượng AI nói bậy, nói sai mới chấm dứt các vụ kiện trong tương lai.

Nguyễn Vũ

Nguồn Saigon Times: https://thesaigontimes.vn/khi-ai-lam-hai-doanh-nghiep/