Anthropic Triển Khai Các Cập Nhật Quan Trọng cho Điều khoản Người dùng và Chính sách Quyền riêng tư của Claude
Anthropic, một công ty nghiên cứu AI hàng đầu, đã công bố các cập nhật đáng kể cho Điều khoản Người dùng và Chính sách Quyền riêng tư dành cho người dùng các mô hình AI Claude của mình. Những thay đổi này, có hiệu lực từ ngày 28 tháng 8 năm 2025, được thiết kế để trao quyền kiểm soát dữ liệu lớn hơn cho người dùng, đồng thời cho phép Anthropic phát triển các hệ thống AI an toàn hơn và có khả năng hơn. Cốt lõi của các cập nhật này tập trung vào cơ chế chọn tham gia để sử dụng dữ liệu trong đào tạo mô hình và thời gian lưu giữ dữ liệu kéo dài đối với những người tham gia.
Động thái này phản ánh xu hướng ngày càng tăng trong ngành hướng tới sự minh bạch và quyền tự chủ của người dùng trong phát triển trí tuệ nhân tạo. Bằng cách cho phép người dùng chủ động lựa chọn xem các tương tác của họ có đóng góp vào quá trình học hỏi của Claude hay không, Anthropic mong muốn nuôi dưỡng một môi trường hợp tác mang lại lợi ích cho cả người dùng cá nhân và hệ sinh thái AI rộng lớn hơn. Sự phát triển chiến lược này của các chính sách hướng đến người tiêu dùng nhấn mạnh cam kết của công ty đối với việc phát triển AI có trách nhiệm và niềm tin của người dùng.
Nâng Cao Claude bằng Thông Tin Chi Tiết và Biện Pháp Bảo Vệ Do Người Dùng Thúc Đẩy
Thay đổi chính trong chính sách cập nhật của Anthropic là việc giới thiệu lựa chọn của người dùng liên quan đến việc sử dụng dữ liệu để cải thiện mô hình. Người dùng các gói Free, Pro và Max của Claude, bao gồm cả những người sử dụng Claude Code từ các tài khoản liên kết, giờ đây sẽ có tùy chọn cho phép dữ liệu của họ đóng góp vào việc đào tạo các mô hình Claude trong tương lai. Sự tham gia này được định vị là một bước quan trọng hướng tới việc xây dựng AI mạnh mẽ và thông minh hơn.
Việc chọn tham gia sử dụng dữ liệu này mang lại một số lợi ích trực tiếp. Theo Anthropic, các tương tác của người dùng cung cấp những hiểu biết thực tế có giá trị giúp tinh chỉnh các giao thức an toàn của mô hình, làm cho các hệ thống phát hiện nội dung có hại trở nên chính xác hơn và ít có khả năng gắn cờ các cuộc trò chuyện vô hại hơn. Ngoài sự an toàn, dữ liệu người dùng được kỳ vọng sẽ cải thiện đáng kể các khả năng cốt lõi của Claude, như năng lực viết mã, suy luận phân tích và kỹ năng giải quyết vấn đề phức tạp. Vòng phản hồi này rất cần thiết cho sự phát triển liên tục của các mô hình ngôn ngữ lớn, dẫn đến các công cụ AI tinh vi và hữu ích hơn cho tất cả mọi người.
Điều quan trọng là phải lưu ý phạm vi cụ thể của các cập nhật này. Mặc dù áp dụng cho các tài khoản cấp người tiêu dùng, nhưng những thay đổi chính sách này rõ ràng không mở rộng sang các dịch vụ được điều chỉnh bởi Điều khoản Thương mại của Anthropic. Điều này bao gồm Claude for Work, Claude for Government, Claude for Education và tất cả các trường hợp sử dụng API, dù trực tiếp hay thông qua các nền tảng của bên thứ ba như Amazon Bedrock hoặc Google Cloud’s Vertex AI. Sự phân biệt này đảm bảo rằng các khách hàng thương mại và đối tác cấp doanh nghiệp duy trì các thỏa thuận dữ liệu và khung quyền riêng tư hiện có của họ, thường là tùy chỉnh. Đối với những người dùng tận dụng các dịch vụ như Amazon Bedrock AgentCore, các thỏa thuận riêng biệt vẫn được áp dụng.
Hướng Dẫn Lựa Chọn của Bạn: Tham Gia và Thời Hạn
Anthropic cam kết cung cấp cho người dùng quyền kiểm soát rõ ràng đối với dữ liệu của họ. Cả người dùng Claude mới và hiện tại sẽ gặp các quy trình riêng biệt để đưa ra lựa chọn chia sẻ dữ liệu của mình. Người dùng mới đăng ký Claude sẽ tìm thấy tùy chọn để chọn ưu tiên đào tạo mô hình như một phần không thể thiếu của quá trình giới thiệu, cho phép họ xác định cài đặt quyền riêng tư ngay từ đầu.
Đối với người dùng hiện tại, Anthropic đã bắt đầu triển khai thông báo trong ứng dụng theo từng giai đoạn. Các cửa sổ bật lên này sẽ nhắc nhở người dùng xem xét Điều khoản Người dùng và Chính sách Quyền riêng tư đã cập nhật và quyết định xem có cho phép dữ liệu của họ được sử dụng để cải thiện mô hình hay không. Người dùng có thời gian gia hạn đến ngày 8 tháng 10 năm 2025 để đưa ra lựa chọn của mình. Nếu người dùng hiện tại chọn chấp nhận các chính sách mới và chọn tham gia trước thời hạn này, những thay đổi này sẽ có hiệu lực ngay lập tức đối với tất cả các cuộc trò chuyện và phiên viết mã mới hoặc tiếp tục. Điều quan trọng là người dùng phải đưa ra lựa chọn trước ngày được chỉ định, vì việc tiếp tục sử dụng Claude sau ngày 8 tháng 10 năm 2025 sẽ yêu cầu lựa chọn cài đặt đào tạo mô hình. Điều này đảm bảo rằng người dùng tích cực tham gia vào việc định hình bối cảnh quyền riêng tư của họ.
Điều quan trọng là quyền kiểm soát của người dùng không phải là quyết định một lần. Anthropic nhấn mạnh rằng các tùy chọn có thể được điều chỉnh bất cứ lúc nào thông qua phần Cài đặt Quyền riêng tư chuyên dụng trong giao diện Claude. Sự linh hoạt này nhấn mạnh cam kết của công ty đối với quyền tự chủ liên tục của người dùng đối với dữ liệu cá nhân của họ.
So Sánh Chính Sách: Sử Dụng và Lưu Giữ Dữ Liệu
Để làm rõ tác động của các cập nhật này, bảng sau đây tóm tắt những khác biệt chính giữa việc chọn tham gia và từ chối sử dụng dữ liệu để đào tạo mô hình theo Điều khoản Người dùng mới:
| Tính năng | Chọn tham gia đào tạo mô hình (Chính sách mới) | Từ chối (Chính sách hiện tại/mặc định) |
|---|---|---|
| Sử dụng Dữ liệu | Các cuộc trò chuyện & phiên viết mã mới/tiếp tục được sử dụng để cải thiện & an toàn mô hình. | Các cuộc trò chuyện & phiên viết mã mới/tiếp tục không được sử dụng để đào tạo mô hình. |
| Thời gian Lưu giữ Dữ liệu | 5 năm đối với dữ liệu đã chọn tham gia. | 30 ngày đối với tất cả dữ liệu. |
| Áp dụng cho | Tài khoản Claude Free, Pro, Max & các phiên Claude Code. | Tài khoản Claude Free, Pro, Max & các phiên Claude Code. |
| Loại trừ | Điều khoản Thương mại, API, Amazon Bedrock, các dịch vụ Google Vertex AI. | Các loại trừ tương tự. |
Chiến Lược Lưu Giữ Dữ Liệu cho Phát Triển AI Dài Hạn
Cùng với việc lựa chọn tham gia đào tạo mô hình, Anthropic cũng giới thiệu thời gian lưu giữ dữ liệu kéo dài cho những người dùng chọn tham gia. Nếu người dùng chọn cho phép dữ liệu của họ được sử dụng để cải thiện mô hình, thời gian lưu giữ cho các cuộc trò chuyện và phiên viết mã mới hoặc tiếp tục sẽ được kéo dài lên năm năm. Đối với những người dùng không chọn tham gia, thời gian lưu giữ dữ liệu 30 ngày hiện có sẽ tiếp tục được áp dụng. Việc lưu giữ mở rộng này cũng bao gồm phản hồi được gửi về phản hồi của Claude đối với các lời nhắc.
Lý do đằng sau thời gian lưu giữ năm năm bắt nguồn sâu sắc từ thực tế phát triển AI tiên tiến. Các mô hình ngôn ngữ lớn trải qua các chu trình phát triển thường kéo dài từ 18 đến 24 tháng trước khi phát hành. Duy trì tính nhất quán của dữ liệu trong thời gian dài hơn là rất quan trọng để tạo ra các mô hình ổn định và dễ dự đoán hơn. Dữ liệu nhất quán cho phép các mô hình được đào tạo và tinh chỉnh theo những cách tương tự, dẫn đến quá trình chuyển đổi và nâng cấp suôn sẻ hơn cho người dùng.
Hơn nữa, việc lưu giữ kéo dài hỗ trợ đáng kể trong việc cải thiện các bộ phân loại nội bộ của Anthropic—các hệ thống tinh vi được sử dụng để xác định và chống lại việc sử dụng sai mục đích, lạm dụng, spam và các mẫu gây hại khác. Các cơ chế an toàn này trở nên hiệu quả hơn bằng cách học hỏi từ dữ liệu thu thập trong thời gian dài hơn, nâng cao khả năng của Claude để duy trì là một công cụ an toàn và hữu ích cho mọi người. Anthropic cũng cam kết tham gia vào các cuộc thảo luận rộng rãi hơn về an toàn AI, như được nhấn mạnh bởi các sáng kiến như Viện Anthropic.
Để bảo vệ quyền riêng tư của người dùng, Anthropic sử dụng kết hợp các công cụ tiên tiến và quy trình tự động để lọc hoặc làm mờ dữ liệu nhạy cảm trước khi được sử dụng cho bất kỳ hoạt động đào tạo hoặc phân tích mô hình nào. Công ty kiên quyết tuyên bố rằng họ không bán dữ liệu người dùng cho bên thứ ba, củng cố cam kết bảo vệ quyền riêng tư ngay cả với việc lưu giữ dữ liệu kéo dài đối với dữ liệu đã chọn tham gia. Người dùng vẫn duy trì quyền kiểm soát dữ liệu của họ ngay cả sau khi đã chọn tham gia; xóa một cuộc trò chuyện cụ thể đảm bảo rằng nó sẽ không được sử dụng cho việc đào tạo mô hình trong tương lai. Cách tiếp cận toàn diện này nhấn mạnh sự cống hiến của Anthropic cho các hoạt động AI có trách nhiệm.
Trao Quyền cho Người Dùng và Quản Trị Dữ Liệu
Điều khoản Người dùng và Chính sách Quyền riêng tư được cập nhật của Anthropic nhấn mạnh cách tiếp cận lấy người dùng làm trung tâm trong phát triển AI. Bằng cách đặt quyền lựa chọn đóng góp vào việc cải thiện mô hình trực tiếp vào tay người dùng, công ty nhằm mục đích thúc đẩy mối quan hệ minh bạch và hợp tác hơn. Khả năng sửa đổi các tùy chọn này bất cứ lúc nào đảm bảo rằng người dùng duy trì quyền kiểm soát liên tục đối với hành trình dữ liệu của họ.
Nếu người dùng ban đầu chọn tham gia đào tạo mô hình nhưng sau đó quyết định thay đổi và từ chối, Anthropic có một chính sách rõ ràng. Mặc dù dữ liệu được sử dụng trong các lần đào tạo mô hình đã hoàn thành trước đó và các mô hình đã phát hành có thể vẫn tồn tại trong các phiên bản đó, nhưng bất kỳ cuộc trò chuyện và phiên viết mã mới nào sau quyết định từ chối sẽ không được sử dụng để đào tạo trong tương lai. Công ty cam kết ngừng sử dụng các cuộc trò chuyện và phiên viết mã đã lưu trữ trước đó trong bất kỳ lần lặp đào tạo mô hình tương lai nào một khi tùy chọn được cập nhật. Điều này cung cấp một cơ chế mạnh mẽ để người dùng quản lý cài đặt quyền riêng tư của họ một cách linh hoạt.
Những cập nhật này đại diện cho một bước đi có tính toán nhằm cân bằng tiềm năng to lớn của đổi mới AI dựa trên dữ liệu với tầm quan trọng tối cao của quyền riêng tư và sự minh bạch của người dùng. Khi các mô hình AI ngày càng được tích hợp vào cuộc sống hàng ngày, các chính sách như thế này là rất quan trọng để xây dựng lòng tin và đảm bảo sự phát triển có đạo đức.
Câu hỏi thường gặp
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Cập nhật tin tức
Nhận tin tức AI mới nhất qua email.
