Công ty AI ra hạn cuối cho người dùng

Cha đẻ Claude AI ra mắt điều khoản mới về sử dụng dữ liệu, bảo mật cho người dùng, và yêu cầu phải đưa ra lựa chọn trước một tháng để tiếp tục sử dụng chatbot.

 Anthropic vừa cập nhật chính sách mới. Ảnh: GK Images.

Anthropic vừa cập nhật chính sách mới. Ảnh: GK Images.

Ngày 28/8, công ty AI Anthropic thông báo ra mắt bản cập nhật Điều khoản Dịch vụ dành cho Người dùng và Chính sách Quyền riêng tư. Người dùng giờ đây có thể lựa chọn cho phép dữ liệu của mình được sử dụng để cải thiện Claude và tăng cường các biện pháp bảo vệ khỏi những hành vi lạm dụng như lừa đảo và gian lận.

Thông báo này sẽ được triển khai trong chatbot kể từ ngày 28/8. Người dùng có một tháng để chấp nhận hoặc từ chối điều khoản. Các chính sách mới sẽ có hiệu lực ngay lập tức khi ấn chấp nhận. Sau ngày 28/9, người dùng bắt buộc đưa ra lựa chọn để có thể tiếp tục sử dụng Claude.

Theo công ty, những cập nhật nhằm giúp mang đến những mô hình AI hữu ích và mạnh mẽ hơn. Việc điều chỉnh tùy chọn này rất đơn giản và có thể thực hiện bất kỳ lúc nào trong Cài đặt Quyền riêng tư (Privacy Settings).

Những thay đổi này được thực hiện trên các gói Claude Free, Pro và Max, đi kèm Claude Code, công cụ lập trình của Anthropic. Các dịch vụ theo Điều khoản Thương mại sẽ không được áp dụng, bao gồm Claude for Work, Claude Gov, Claude for Education hoặc việc sử dụng API, kể cả thông qua bên thứ ba như Amazon Bedrock và Google Cloud’s Vertex AI.

Trong bài blog của mình, Anthropic cho biết bằng cách tham gia, người dùng sẽ giúp cải thiện độ an toàn của mô hình, tăng khả năng phát hiện chính xác nội dung độc hại và giảm nguy cơ gắn cờ nhầm các cuộc trò chuyện vô hại. Các phiên bản Claude trong tương lai cũng được nâng cao kỹ năng như lập trình, phân tích và suy luận.

Điều quan trọng là người dùng có toàn quyền kiểm soát dữ liệu của mình, và cho phép nền tảng sử dụng chúng hay không trong một cửa sổ hiển thị. Tài khoản mới có thể tùy chọn thiết lập trong quá trình đăng ký.

 Cửa sổ hiển thị về Điều khoản mới trong chatbot. Ảnh: Anthropic.

Cửa sổ hiển thị về Điều khoản mới trong chatbot. Ảnh: Anthropic.

Thời gian lưu trữ dữ liệu được tăng lên 5 năm, áp dụng cho những cuộc trò chuyện hoặc phiên lập trình (coding session) mới hoặc được tiếp tục từ các phiên cũ, cũng như phản hồi về câu trả lời của chatbot. Dữ liệu được xóa đi sẽ không được dùng để huấn luyện mô hình trong tương lai. Nếu không đồng ý cung cấp dữ liệu để huấn luyện, người dùng sẽ tiếp tục với chính sách lưu trữ hiện tại là 30 ngày.

Giải thích về chính sách, Anthropic cho rằng chu kỳ phát triển AI thường kéo dài nhiều năm, việc giữ dữ liệu nhất quán trong suốt quá trình huấn luyện cũng giúp mô hình nhất quán hơn. Thời gian lưu trữ dữ liệu dài hơn cũng giúp cải thiện các bộ phân loại, hệ thống dùng để nhận diện hành vi lạm dụng, nhằm phát hiện các mẫu hành vi gây hại.

“Để bảo vệ quyền riêng tư của người dùng, chúng tôi sử dụng kết hợp nhiều công cụ và quy trình tự động nhằm lọc hoặc ẩn đi các dữ liệu nhạy cảm. Chúng tôi không bán dữ liệu của người dùng cho bên thứ ba”, công ty viết.

Anthropic thường được nhắc đến là một trong những doanh nghiệp đi đầu về AI an toàn. Anthropic phát triển một phương pháp gọi là Constitutional AI, đặt ra các nguyên tắc đạo đức và hướng dẫn mà mô hình phải tuân theo. Anthropic cũng là một trong những công ty tham gia các cam kết AI an toàn với chính phủ Mỹ, Anh và nhóm G7.

Nhật Tường

Nguồn Znews: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
Zalo