Anthropic muốn dùng đoạt chat với người dùng để huấn luyện Claude
Anthropic, công ty đứng sau chatbot nổi tiếng Claude, đã thông báo về một chính sách mới cho phép sử dụng bản ghi các cuộc trò chuyện của người dùng để huấn luyện các mô hình AI.
Vì sao Claude cần dữ liệu người dùng?
Claude vốn được nhiều người coi là đối thủ nặng ký để nâng cấp trợ lý ảo Siri của Apple. Giờ đây, mô hình này sẽ sử dụng nhật ký tương tác của người dùng để cải thiện hiệu suất, tăng cường các biện pháp an toàn và nâng cao độ chính xác trong việc phát hiện nội dung độc hại. Chính sách này cũng áp dụng cho Claude Code, một phiên bản chatbot dành cho các nhà phát triển.

Anthropic muốn huấn luyện Claude thông qua dữ liệu của người dùng.
Anthropic cho biết: "Khi tham gia, bạn sẽ giúp chúng tôi cải thiện sự an toàn của mô hình, giúp hệ thống phát hiện nội dung độc hại của chúng tôi chính xác hơn và ít có khả năng gắn cờ nhầm các cuộc trò chuyện vô hại".
Dù sự thay đổi này thể hiện một cách tiếp cận mới của công ty đối với việc sử dụng dữ liệu, nó không phải là bắt buộc. Người dùng có thể chọn không tham gia quá trình huấn luyện mô hình bằng cách điều chỉnh cài đặt của nền tảng.
Thông báo về thay đổi sẽ tiếp tục xuất hiện cho đến ngày 28.9, cho phép người dùng tùy chọn tắt công tắc "Bạn có thể giúp cải thiện Claude" trước khi chấp nhận các điều khoản. Sau ngày này, người dùng sẽ cần tự điều chỉnh cài đặt thông qua bảng điều khiển huấn luyện mô hình.
Chỉ các cuộc trò chuyện mới bị ảnh hưởng, cuộc trò chuyện cũ được loại trừ
Anthropic xác nhận rằng chỉ những cuộc trò chuyện mới hoặc được tiếp tục, mới được đưa vào quá trình huấn luyện AI; trong khi các cuộc trò chuyện trước đó được loại trừ. Thay đổi này phản ánh một xu hướng rộng hơn trong ngành AI, nơi các công ty đang tìm kiếm thêm dữ liệu để nâng cao khả năng của mô hình giữa bối cảnh cạnh tranh ngày càng tăng và nguồn tài liệu huấn luyện chất lượng cao ngày càng hạn chế.
Những người dùng Claude hiện tại muốn từ chối đóng góp dữ liệu có thể thực hiện theo đường dẫn sau: Cài đặt > Quyền riêng tư > Giúp cải thiện Claude. Chính sách cập nhật này áp dụng cho các gói Claude Free, Pro và Max. Tuy nhiên, nó không ảnh hưởng đến các phiên bản Claude for Work, Claude Gov, Claude for Education, việc sử dụng APU; hoặc các trường hợp dịch vụ được truy cập thông qua các nền tảng của bên thứ ba như Google’s Vertex AI và Amazon Bedrock.
Quyết định này nhấn mạnh cam kết của Anthropic trong việc nâng cao hiệu suất tổng thể của Claude và đảm bảo nó vẫn có tính cạnh tranh trong một thị trường AI đang phát triển nhanh chóng. Trước đây, công ty đã định vị Claude là một chatbot an toàn và đáng tin cậy hơn, ưu tiên sự tin tưởng và quyền kiểm soát của người dùng.
Thời gian lưu trữ dữ liệu được kéo dài lên 5 năm
Cùng với chính sách huấn luyện mới, Anthropic cũng đang sửa đổi các quy tắc lưu trữ dữ liệu của mình. Dữ liệu người dùng giờ đây có thể được lưu trữ lên đến 5 năm, mặc dù các cuộc trò chuyện được xóa thủ công sẽ không được sử dụng để huấn luyện AI.
Công ty cho biết cách tiếp cận này sẽ giúp tinh chỉnh các mô hình của họ, đồng thời cho phép người dùng quyền quản lý dữ liệu cá nhân của mình.
Quyết định của Anthropic về việc giới thiệu chính sách huấn luyện dữ liệu tùy chọn (opt-out) đối lập với các đối thủ đã áp dụng chính sách sử dụng dữ liệu bắt buộc. Bằng cách cho phép người dùng lựa chọn, công ty này đặt mục tiêu tạo ra sự cân bằng giữa tính minh bạch, cải thiện an toàn và tôn trọng quyền riêng tư cá nhân.
Với công nghệ AI đang phát triển nhanh chóng, cách tiếp cận của Anthropic phản ánh sự căng thẳng ngày càng tăng giữa đổi mới và quyền kiểm soát của người dùng. Hiện tại, người dùng Claude có một tháng để quyết định xem họ có thoải mái đóng góp vào sự phát triển của nền tảng hay không.
Các mô hình khác thì sao?
ChatGPT (OpenAI)
OpenAI sử dụng dữ liệu người dùng để cải thiện mô hình của họ, nhưng có một số lựa chọn cho người dùng.
Chính sách mặc định: Mặc định, các cuộc trò chuyện của bạn sẽ được sử dụng để huấn luyện mô hình.
Tùy chọn không tham gia (opt-out): Bạn có thể tắt tính năng này trong phần cài đặt quyền riêng tư. Khi bạn tắt, các cuộc trò chuyện mới sẽ không được dùng để huấn luyện mô hình, và sẽ bị xóa sau 30 ngày.
Dữ liệu API: Dữ liệu gửi qua API của OpenAI không được sử dụng để huấn luyện mô hình trừ khi có sự đồng ý rõ ràng.
Gemini (Google)
Google có chính sách sử dụng dữ liệu tương tự như OpenAI.
Chính sách mặc định: Theo mặc định, các cuộc trò chuyện và tương tác với Gemini được lưu trữ để giúp cải thiện dịch vụ.
Tùy chọn không tham gia (opt-out): Bạn có thể tắt "Hoạt động của Gemini" (Gemini Apps Activity) trong cài đặt. Khi tắt, các cuộc trò chuyện mới sẽ không được lưu lại hoặc sử dụng để huấn luyện, nhưng Google vẫn có thể lưu trữ một số dữ liệu nhất định trong một thời gian ngắn để đảm bảo an toàn.
Grok (xAI)
Grok của xAI có cách tiếp cận khác biệt vì nó được tích hợp với nền tảng X (Twitter).
Chính sách mặc định: Grok sử dụng dữ liệu công khai trên nền tảng X để huấn luyện mô hình. Điều này có nghĩa là các bài đăng công khai của bạn trên X có thể được dùng để đào tạo Grok.
Dữ liệu riêng tư: xAI tuyên bố không sử dụng tin nhắn trực tiếp hoặc các nội dung không công khai khác để huấn luyện mô hình. Chính sách này phản ánh đặc thù của Grok khi nó được thiết kế để nắm bắt thông tin theo thời gian thực từ các cuộc hội thoại công khai.