Code Velocity
Mô hình AI

Anthropic Claude: Cập Nhật Điều Khoản Người Dùng & Chính Sách Quyền Riêng Tư

·5 phút đọc·Anthropic·Nguồn gốc
Chia sẻ
Màn hình thông báo cập nhật Điều khoản Người dùng và Chính sách Quyền riêng tư của Anthropic Claude

Anthropic Triển Khai Các Cập Nhật Quan Trọng cho Điều khoản Người dùng và Chính sách Quyền riêng tư của Claude

Anthropic, một công ty nghiên cứu AI hàng đầu, đã công bố các cập nhật đáng kể cho Điều khoản Người dùng và Chính sách Quyền riêng tư dành cho người dùng các mô hình AI Claude của mình. Những thay đổi này, có hiệu lực từ ngày 28 tháng 8 năm 2025, được thiết kế để trao quyền kiểm soát dữ liệu lớn hơn cho người dùng, đồng thời cho phép Anthropic phát triển các hệ thống AI an toàn hơn và có khả năng hơn. Cốt lõi của các cập nhật này tập trung vào cơ chế chọn tham gia để sử dụng dữ liệu trong đào tạo mô hình và thời gian lưu giữ dữ liệu kéo dài đối với những người tham gia.

Động thái này phản ánh xu hướng ngày càng tăng trong ngành hướng tới sự minh bạch và quyền tự chủ của người dùng trong phát triển trí tuệ nhân tạo. Bằng cách cho phép người dùng chủ động lựa chọn xem các tương tác của họ có đóng góp vào quá trình học hỏi của Claude hay không, Anthropic mong muốn nuôi dưỡng một môi trường hợp tác mang lại lợi ích cho cả người dùng cá nhân và hệ sinh thái AI rộng lớn hơn. Sự phát triển chiến lược này của các chính sách hướng đến người tiêu dùng nhấn mạnh cam kết của công ty đối với việc phát triển AI có trách nhiệm và niềm tin của người dùng.

Nâng Cao Claude bằng Thông Tin Chi Tiết và Biện Pháp Bảo Vệ Do Người Dùng Thúc Đẩy

Thay đổi chính trong chính sách cập nhật của Anthropic là việc giới thiệu lựa chọn của người dùng liên quan đến việc sử dụng dữ liệu để cải thiện mô hình. Người dùng các gói Free, Pro và Max của Claude, bao gồm cả những người sử dụng Claude Code từ các tài khoản liên kết, giờ đây sẽ có tùy chọn cho phép dữ liệu của họ đóng góp vào việc đào tạo các mô hình Claude trong tương lai. Sự tham gia này được định vị là một bước quan trọng hướng tới việc xây dựng AI mạnh mẽ và thông minh hơn.

Việc chọn tham gia sử dụng dữ liệu này mang lại một số lợi ích trực tiếp. Theo Anthropic, các tương tác của người dùng cung cấp những hiểu biết thực tế có giá trị giúp tinh chỉnh các giao thức an toàn của mô hình, làm cho các hệ thống phát hiện nội dung có hại trở nên chính xác hơn và ít có khả năng gắn cờ các cuộc trò chuyện vô hại hơn. Ngoài sự an toàn, dữ liệu người dùng được kỳ vọng sẽ cải thiện đáng kể các khả năng cốt lõi của Claude, như năng lực viết mã, suy luận phân tích và kỹ năng giải quyết vấn đề phức tạp. Vòng phản hồi này rất cần thiết cho sự phát triển liên tục của các mô hình ngôn ngữ lớn, dẫn đến các công cụ AI tinh vi và hữu ích hơn cho tất cả mọi người.

Điều quan trọng là phải lưu ý phạm vi cụ thể của các cập nhật này. Mặc dù áp dụng cho các tài khoản cấp người tiêu dùng, nhưng những thay đổi chính sách này rõ ràng không mở rộng sang các dịch vụ được điều chỉnh bởi Điều khoản Thương mại của Anthropic. Điều này bao gồm Claude for Work, Claude for Government, Claude for Education và tất cả các trường hợp sử dụng API, dù trực tiếp hay thông qua các nền tảng của bên thứ ba như Amazon Bedrock hoặc Google Cloud’s Vertex AI. Sự phân biệt này đảm bảo rằng các khách hàng thương mại và đối tác cấp doanh nghiệp duy trì các thỏa thuận dữ liệu và khung quyền riêng tư hiện có của họ, thường là tùy chỉnh. Đối với những người dùng tận dụng các dịch vụ như Amazon Bedrock AgentCore, các thỏa thuận riêng biệt vẫn được áp dụng.

Hướng Dẫn Lựa Chọn của Bạn: Tham Gia và Thời Hạn

Anthropic cam kết cung cấp cho người dùng quyền kiểm soát rõ ràng đối với dữ liệu của họ. Cả người dùng Claude mới và hiện tại sẽ gặp các quy trình riêng biệt để đưa ra lựa chọn chia sẻ dữ liệu của mình. Người dùng mới đăng ký Claude sẽ tìm thấy tùy chọn để chọn ưu tiên đào tạo mô hình như một phần không thể thiếu của quá trình giới thiệu, cho phép họ xác định cài đặt quyền riêng tư ngay từ đầu.

Đối với người dùng hiện tại, Anthropic đã bắt đầu triển khai thông báo trong ứng dụng theo từng giai đoạn. Các cửa sổ bật lên này sẽ nhắc nhở người dùng xem xét Điều khoản Người dùng và Chính sách Quyền riêng tư đã cập nhật và quyết định xem có cho phép dữ liệu của họ được sử dụng để cải thiện mô hình hay không. Người dùng có thời gian gia hạn đến ngày 8 tháng 10 năm 2025 để đưa ra lựa chọn của mình. Nếu người dùng hiện tại chọn chấp nhận các chính sách mới và chọn tham gia trước thời hạn này, những thay đổi này sẽ có hiệu lực ngay lập tức đối với tất cả các cuộc trò chuyện và phiên viết mã mới hoặc tiếp tục. Điều quan trọng là người dùng phải đưa ra lựa chọn trước ngày được chỉ định, vì việc tiếp tục sử dụng Claude sau ngày 8 tháng 10 năm 2025 sẽ yêu cầu lựa chọn cài đặt đào tạo mô hình. Điều này đảm bảo rằng người dùng tích cực tham gia vào việc định hình bối cảnh quyền riêng tư của họ.

Điều quan trọng là quyền kiểm soát của người dùng không phải là quyết định một lần. Anthropic nhấn mạnh rằng các tùy chọn có thể được điều chỉnh bất cứ lúc nào thông qua phần Cài đặt Quyền riêng tư chuyên dụng trong giao diện Claude. Sự linh hoạt này nhấn mạnh cam kết của công ty đối với quyền tự chủ liên tục của người dùng đối với dữ liệu cá nhân của họ.

So Sánh Chính Sách: Sử Dụng và Lưu Giữ Dữ Liệu

Để làm rõ tác động của các cập nhật này, bảng sau đây tóm tắt những khác biệt chính giữa việc chọn tham gia và từ chối sử dụng dữ liệu để đào tạo mô hình theo Điều khoản Người dùng mới:

Tính năngChọn tham gia đào tạo mô hình (Chính sách mới)Từ chối (Chính sách hiện tại/mặc định)
Sử dụng Dữ liệuCác cuộc trò chuyện & phiên viết mã mới/tiếp tục được sử dụng để cải thiện & an toàn mô hình.Các cuộc trò chuyện & phiên viết mã mới/tiếp tục không được sử dụng để đào tạo mô hình.
Thời gian Lưu giữ Dữ liệu5 năm đối với dữ liệu đã chọn tham gia.30 ngày đối với tất cả dữ liệu.
Áp dụng choTài khoản Claude Free, Pro, Max & các phiên Claude Code.Tài khoản Claude Free, Pro, Max & các phiên Claude Code.
Loại trừĐiều khoản Thương mại, API, Amazon Bedrock, các dịch vụ Google Vertex AI.Các loại trừ tương tự.

Chiến Lược Lưu Giữ Dữ Liệu cho Phát Triển AI Dài Hạn

Cùng với việc lựa chọn tham gia đào tạo mô hình, Anthropic cũng giới thiệu thời gian lưu giữ dữ liệu kéo dài cho những người dùng chọn tham gia. Nếu người dùng chọn cho phép dữ liệu của họ được sử dụng để cải thiện mô hình, thời gian lưu giữ cho các cuộc trò chuyện và phiên viết mã mới hoặc tiếp tục sẽ được kéo dài lên năm năm. Đối với những người dùng không chọn tham gia, thời gian lưu giữ dữ liệu 30 ngày hiện có sẽ tiếp tục được áp dụng. Việc lưu giữ mở rộng này cũng bao gồm phản hồi được gửi về phản hồi của Claude đối với các lời nhắc.

Lý do đằng sau thời gian lưu giữ năm năm bắt nguồn sâu sắc từ thực tế phát triển AI tiên tiến. Các mô hình ngôn ngữ lớn trải qua các chu trình phát triển thường kéo dài từ 18 đến 24 tháng trước khi phát hành. Duy trì tính nhất quán của dữ liệu trong thời gian dài hơn là rất quan trọng để tạo ra các mô hình ổn định và dễ dự đoán hơn. Dữ liệu nhất quán cho phép các mô hình được đào tạo và tinh chỉnh theo những cách tương tự, dẫn đến quá trình chuyển đổi và nâng cấp suôn sẻ hơn cho người dùng.

Hơn nữa, việc lưu giữ kéo dài hỗ trợ đáng kể trong việc cải thiện các bộ phân loại nội bộ của Anthropic—các hệ thống tinh vi được sử dụng để xác định và chống lại việc sử dụng sai mục đích, lạm dụng, spam và các mẫu gây hại khác. Các cơ chế an toàn này trở nên hiệu quả hơn bằng cách học hỏi từ dữ liệu thu thập trong thời gian dài hơn, nâng cao khả năng của Claude để duy trì là một công cụ an toàn và hữu ích cho mọi người. Anthropic cũng cam kết tham gia vào các cuộc thảo luận rộng rãi hơn về an toàn AI, như được nhấn mạnh bởi các sáng kiến như Viện Anthropic.

Để bảo vệ quyền riêng tư của người dùng, Anthropic sử dụng kết hợp các công cụ tiên tiến và quy trình tự động để lọc hoặc làm mờ dữ liệu nhạy cảm trước khi được sử dụng cho bất kỳ hoạt động đào tạo hoặc phân tích mô hình nào. Công ty kiên quyết tuyên bố rằng họ không bán dữ liệu người dùng cho bên thứ ba, củng cố cam kết bảo vệ quyền riêng tư ngay cả với việc lưu giữ dữ liệu kéo dài đối với dữ liệu đã chọn tham gia. Người dùng vẫn duy trì quyền kiểm soát dữ liệu của họ ngay cả sau khi đã chọn tham gia; xóa một cuộc trò chuyện cụ thể đảm bảo rằng nó sẽ không được sử dụng cho việc đào tạo mô hình trong tương lai. Cách tiếp cận toàn diện này nhấn mạnh sự cống hiến của Anthropic cho các hoạt động AI có trách nhiệm.

Trao Quyền cho Người Dùng và Quản Trị Dữ Liệu

Điều khoản Người dùng và Chính sách Quyền riêng tư được cập nhật của Anthropic nhấn mạnh cách tiếp cận lấy người dùng làm trung tâm trong phát triển AI. Bằng cách đặt quyền lựa chọn đóng góp vào việc cải thiện mô hình trực tiếp vào tay người dùng, công ty nhằm mục đích thúc đẩy mối quan hệ minh bạch và hợp tác hơn. Khả năng sửa đổi các tùy chọn này bất cứ lúc nào đảm bảo rằng người dùng duy trì quyền kiểm soát liên tục đối với hành trình dữ liệu của họ.

Nếu người dùng ban đầu chọn tham gia đào tạo mô hình nhưng sau đó quyết định thay đổi và từ chối, Anthropic có một chính sách rõ ràng. Mặc dù dữ liệu được sử dụng trong các lần đào tạo mô hình đã hoàn thành trước đó và các mô hình đã phát hành có thể vẫn tồn tại trong các phiên bản đó, nhưng bất kỳ cuộc trò chuyện và phiên viết mã mới nào sau quyết định từ chối sẽ không được sử dụng để đào tạo trong tương lai. Công ty cam kết ngừng sử dụng các cuộc trò chuyện và phiên viết mã đã lưu trữ trước đó trong bất kỳ lần lặp đào tạo mô hình tương lai nào một khi tùy chọn được cập nhật. Điều này cung cấp một cơ chế mạnh mẽ để người dùng quản lý cài đặt quyền riêng tư của họ một cách linh hoạt.

Những cập nhật này đại diện cho một bước đi có tính toán nhằm cân bằng tiềm năng to lớn của đổi mới AI dựa trên dữ liệu với tầm quan trọng tối cao của quyền riêng tư và sự minh bạch của người dùng. Khi các mô hình AI ngày càng được tích hợp vào cuộc sống hàng ngày, các chính sách như thế này là rất quan trọng để xây dựng lòng tin và đảm bảo sự phát triển có đạo đức.

Câu hỏi thường gặp

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Cập nhật tin tức

Nhận tin tức AI mới nhất qua email.

Chia sẻ