Code Velocity
AI 模型

Anthropic Claude:消费者条款和隐私政策更新

·5 分钟阅读·Anthropic·原始来源
分享
Anthropic Claude 消费者条款和隐私政策更新通知屏幕

title: "Anthropic Claude:消费者条款和隐私政策更新" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "zh" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI 模型" keywords:

  • Anthropic
  • Claude AI
  • 消费者条款
  • 隐私政策
  • 数据使用
  • 模型训练
  • AI 安全
  • 数据保留
  • 用户偏好
  • AI 开发
  • LLM 政策
  • 透明度 meta_description: "Anthropic 发布了 Claude 消费者条款和隐私政策的关键更新,让用户可以控制用于模型改进的数据使用,并延长数据保留期限以确保安全和开发。" image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude 消费者条款和隐私政策更新通知屏幕" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Anthropic 为 Claude 用户更新的消费者条款和隐私政策引入了哪些核心变化?" answer: "Anthropic 正在对其消费者条款和隐私政策进行重大更新,核心在于赋予用户选择是否允许其数据用于改进 Claude AI 模型的权利。当此设置启用时,来自免费、专业和 Max 账户的数据,包括 Claude Code 会话,将有助于训练新模型。这旨在增强模型的安全性、准确性以及在编码、分析和推理等方面的能力。此外,对于选择加入的用户,数据保留期限将延长至五年。反之,如果用户选择不加入模型训练,现有的 30 天数据保留政策将继续有效。这些更改不影响特定企业协议下的商业用户或 API 使用,从而确保对不同用户群体有不同的政策。"
  • question: "哪些 Claude 服务和用户类型受到这些新政策更新的影响,哪些不受影响?" answer: "更新后的消费者条款和隐私政策专门适用于 Anthropic 的 Claude 免费、专业和 Max 计划的个人用户。这包括用户通过与这些消费者计划关联的账户与 Claude Code 交互的情况。然而,重要的是要理解,这些更新不适用于在 Anthropic 商业条款下运营的服务。这意味着 Claude for Work(包括团队和企业计划)、Claude for Government、Claude for Education,以及所有 API 使用——无论是直接使用还是通过第三方平台(如 Amazon Bedrock 或 Google Cloud 的 Vertex AI)使用——都被明确排除在这些以消费者为中心的新政策变化之外。商业用户和 API 集成商将继续在其现有协议下运营,这些协议具有独立的隐私和数据处理规定。"
  • question: "Anthropic 为什么要进行这些更改,尤其是在模型训练数据使用和延长数据保留方面?" answer: "Anthropic 表示,这些更改源于持续改进像 Claude 这样的大型语言模型的能力、安全性和实用性的根本需求。真实世界的交互提供了宝贵的数据信号,有助于模型了解哪些响应最有用、最准确和最安全。例如,开发人员使用 Claude 调试代码提供了改进未来编码能力的关键洞察。延长的数据保留期(五年),特别是针对选择加入的用户,旨在支持 AI 的漫长开发周期,确保数据一致性以实现更稳定的模型升级,并增强内部分类器在更长时间内检测和缓解有害使用模式(如滥用或垃圾邮件)的有效性,最终使 Claude 对所有人来说都更安全。"
  • question: "现有和新的 Claude 用户需要就这些政策更新和他们的数据偏好采取哪些步骤?" answer: "现有 Claude 用户将收到应用内通知,提示他们查看更新并决定是否允许其聊天和编程会话用于模型改进。用户需在 2025 年 10 月 8 日之前做出选择。如果他们选择提前接受,新政策将立即适用于新的或恢复的聊天。截止日期后,必须做出选择才能继续使用 Claude。新用户将在初始注册过程中收到此选择。无论新用户还是现有用户,都可以在 Claude 界面内的专用隐私设置中随时修改偏好,从而持续控制个人数据使用并确保透明度。"
  • question: "如果用户最初允许将数据用于模型训练,但后来决定改变主意选择退出,会发生什么?" answer: "Anthropic 强调,用户保留对其数据偏好的完全控制权,并可以通过其隐私设置随时更新选择。如果用户最初选择加入模型训练,但后来决定关闭此设置,则与 Claude 的任何新的聊天和编程会话将不再用于未来的模型训练运行。然而,需要注意的是,来自已完成的模型训练运行以及已发布的模型的数据可能仍然包含其过去交互的数据。尽管如此,Anthropic 承诺一旦退出偏好被注册,将停止在任何未来模型训练迭代中使用那些先前存储的聊天和编程会话,从而尊重用户对持续数据使用和隐私的更新选择。"
  • question: "Anthropic 如何通过这些新政策,特别是在延长数据保留期限的情况下,确保用户隐私和数据保护?" answer: "为了保护用户隐私,Anthropic 采用了一系列先进工具和自动化流程,旨在在使用敏感数据进行模型训练之前对其进行过滤或混淆,即使对于选择加入的用户延长了保留期限。该公司明确表示不会将用户数据出售给第三方,从而重申了其对隐私的承诺。此外,用户保留控制权:删除对话可确保其不会用于未来的模型训练,更改选择加入设置可防止新聊天被使用。这些措施旨在平衡数据驱动的模型改进需求与严格的隐私保护,确保在整个 AI 开发生命周期中用户的信任和数据安全。这种全面的方法突显了 Anthropic 对负责任 AI 实践的奉献。"

Anthropic 发布 Claude 消费者条款和隐私政策的关键更新

Anthropic,一家领先的 AI 研究公司,已宣布对其 Claude AI 模型用户的消费者条款和隐私政策进行重大更新。这些更改自 2025 年 8 月 28 日起生效,旨在赋予用户更大的数据控制权,同时使 Anthropic 能够开发出更强大、更安全的 AI 系统。这些更新的核心围绕着数据用于模型训练的选择加入机制,以及对于参与者的延长数据保留期限。

此举反映了人工智能发展中,行业对更高透明度和用户自主权的日益增长的趋势。通过允许用户主动选择其交互是否用于 Claude 的学习,Anthropic 旨在营造一个协作环境,惠及个人用户和更广泛的 AI 生态系统。消费者导向政策的这一战略性演进,凸显了公司对负责任 AI 开发和用户信任的承诺。

借用户驱动的洞察和保障提升 Claude

Anthropic 更新政策的主要变化是引入了用户选择数据用于模型改进的机制。Claude 免费、专业和 Max 计划的用户,包括那些利用关联账户的 Claude Code 的用户,现在可以选择允许其数据用于训练未来的 Claude 模型。这种参与被定位为构建更强大、更智能 AI 的关键一步。

选择加入此数据使用可带来多项直接好处。Anthropic 表示,用户交互提供了宝贵的真实世界洞察,有助于完善模型安全协议,使检测有害内容的系统更加准确,减少误报无害对话的可能性。除了安全之外,用户数据有望显著提升 Claude 的核心能力,例如编码熟练度、分析推理和复杂问题解决能力。这种反馈循环对于大型语言模型的持续演进至关重要,最终为所有人带来更精细、更有用的 AI 工具。

值得注意的是这些更新的具体范围。虽然适用于消费者层级账户,但这些政策更改明确适用于受 Anthropic 商业条款管辖的服务。这包括 Claude for Work、Claude for Government、Claude for Education,以及所有 API 使用,无论是直接使用还是通过第三方平台(如 Amazon Bedrock 或 Google Cloud 的 Vertex AI)使用。这种区分确保商业客户和企业级合作伙伴保持其现有的、通常是定制的数据协议和隐私框架。对于使用 Amazon Bedrock AgentCore 等服务的用户,独立的协议仍然有效。

理解您的选择:选择加入与截止日期

Anthropic 致力于为用户提供对其数据清晰的控制权。新的和现有的 Claude 用户都将遇到不同的流程来做出他们的数据共享选择。新注册 Claude 的用户将在入职流程中找到选择模型训练偏好的选项,从而使他们能够从一开始就定义自己的隐私设置。

对于现有用户,Anthropic 已启动分阶段的应用内通知推送。这些弹出窗口将提示用户查看更新后的消费者条款和隐私政策,并决定是否允许其数据用于模型改进。用户有直至 2025 年 10 月 8 日 的宽限期来做出选择。如果现有用户在此截止日期之前选择接受新政策并选择加入,这些更改将立即对所有新的或恢复的聊天和编程会话生效。用户必须在指定日期前做出选择,因为在 2025 年 10 月 8 日之后继续使用 Claude 将需要对模型训练设置进行选择。这确保了用户积极参与塑造其隐私格局。

至关重要的是,用户控制不是一次性的决定。Anthropic 强调,偏好可以随时通过 Claude 界面内的专用隐私设置部分进行调整。这种灵活性突显了公司对用户个人数据持续自主权的承诺。

政策对比:数据使用与保留

为了阐明这些更新的影响,下表总结了在新消费者条款下,选择加入和选择退出数据用于模型训练之间的关键区别:

特性选择加入模型训练(新政策)选择退出(现有/默认政策)
数据使用新的/恢复的聊天和编程会话用于模型改进与安全。新的/恢复的聊天和编程会话用于模型训练。
数据保留期限选择加入的数据保留 5 年。所有数据保留 30 天。
适用范围Claude 免费、专业、Max 账户和 Claude Code 会话。Claude 免费、专业、Max 账户和 Claude Code 会话。
排除项商业条款、API、Amazon Bedrock、Google Vertex AI 服务。相同排除项。

长期 AI 发展的战略性数据保留

除了选择加入模型训练之外,Anthropic 还为选择参与的用户引入了延长的数据保留期限。如果用户选择允许将其数据用于模型改进,则新的或恢复的聊天和编程会话的保留期限将延长至五年。对于未选择加入的用户,现有的 30 天数据保留期限将继续适用。这种延长保留期也涵盖了就 Claude 对提示的响应提交的反馈。

五年保留期背后的理由深深植根于先进 AI 开发的现实。大型语言模型的开发周期通常长达 18 到 24 个月才能发布。在较长时间内保持数据一致性对于创建更稳定和可预测的模型至关重要。一致的数据允许模型以类似的方式进行训练和完善,从而为用户带来更顺畅的过渡和升级。

此外,延长保留期显著有助于改进 Anthropic 的内部分类器——用于识别和打击滥用、误用、垃圾邮件和其他有害模式的复杂系统。这些安全机制通过从更长时间内收集的数据中学习而变得更有效,从而增强了 Claude 保持安全和有益工具的能力。Anthropic 也致力于更广泛的 AI 安全讨论,正如 The Anthropic Institute 等倡议所强调的。

为了保护用户隐私,Anthropic 采用了一系列先进工具和自动化流程,在使用敏感数据进行任何模型训练或分析之前对其进行过滤或混淆。公司明确声明不会将用户数据出售给第三方,即使对于选择加入的数据延长了保留期限,也重申了其对隐私的承诺。即使在选择加入后,用户仍对其数据保持控制;删除特定对话可确保其不会用于未来的模型训练。

赋能用户与数据治理

Anthropic 更新的消费者条款和隐私政策强调了以用户为中心的 AI 开发方法。通过将决定是否参与模型改进的权利直接交到用户手中,公司旨在建立更透明、更协作的关系。随时修改这些偏好的能力确保用户对其数据的旅程拥有持续的控制权。

如果用户最初选择加入模型训练,但后来决定改变主意并选择退出,Anthropic 有明确的政策。虽然已完成的模型训练运行和已发布模型中使用的数据可能仍然存在于这些版本中,但选择退出决定后,任何新的聊天和编程会话将不会用于未来的训练。公司承诺,一旦偏好更新,将停止在任何未来模型训练迭代中使用先前存储的聊天和编程会话。这为用户动态管理其隐私设置提供了强大的机制。

这些更新代表了在平衡数据驱动 AI 创新的巨大潜力与用户隐私和透明度至关重要性之间迈出的审慎一步。随着 AI 模型日益融入日常生活,像这样的政策对于建立信任和确保道德发展至关重要。

常见问题

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

保持更新

将最新AI新闻发送到您的收件箱。

分享