Code Velocity
AIモデル

Anthropic Claude: 消費者向け利用規約とプライバシーポリシーの更新

·5 分で読めます·Anthropic·元の情報源
共有
Anthropic Claude 消費者向け利用規約とプライバシーポリシー更新通知画面

Anthropic、Claudeの消費者向け利用規約とプライバシーポリシーの主要な更新を発表

AI研究をリードするAnthropicは、Claude AIモデルのユーザー向け消費者向け利用規約とプライバシーポリシーの重要な更新を発表しました。2025年8月28日に発効するこれらの変更は、ユーザーが自身のデータをより細かく管理できるようにすると同時に、Anthropicがより高性能で安全なAIシステムを開発できるようにすることを目的としています。これらの更新の中核は、モデルトレーニングにおけるデータ利用のオプトインメカニズムと、参加者向けのデータ保持期間の延長に焦点を当てています。

この動きは、人工知能の開発において、より高い透明性とユーザーの主体性への業界の傾向を反映しています。ユーザーが自身のインタラクションがClaudeの学習に貢献するかどうかを積極的に選択できるようにすることで、Anthropicは個々のユーザーと広範なAIエコシステムの両方に利益をもたらす協力的な環境を育むことを目指しています。消費者向けポリシーのこの戦略的な進化は、責任あるAI開発とユーザーの信頼に対する同社のコミットメントを強調しています。

ユーザー主導の洞察と保護でClaudeを強化

Anthropicの更新されたポリシーにおける主な変更点は、モデル改善のためのデータ利用に関するユーザーの選択肢の導入です。ClaudeのFree、Pro、Maxプランのユーザーは、関連するアカウントからClaude Codeを利用しているユーザーを含め、自身のデータを将来のClaudeモデルのトレーニングに貢献させるオプションを持つことになります。この参加は、より堅牢でインテリジェントなAIを構築するための重要なステップと位置付けられています。

このデータ利用にオプトインすることで、いくつかの直接的なメリットが得られます。Anthropicによると、ユーザーのインタラクションは、モデルの安全性プロトコルを洗練させるのに役立つ貴重な実世界の洞察を提供し、有害なコンテンツを検出するシステムをより正確にし、無害な会話を誤ってフラグ付けする傾向を低減します。安全性だけでなく、ユーザーデータは、コーディング能力、分析的推論、複雑な問題解決スキルなど、Claudeのコア機能を大幅に向上させることが期待されています。このフィードバックループは、大規模言語モデルの継続的な進化に不可欠であり、すべての人にとってより洗練され、有用なAIツールにつながります。

これらの更新の具体的な範囲に注意することが重要です。消費者層のアカウントに適用されますが、これらのポリシー変更は、Anthropicの商用利用規約に準拠するサービスには明示的に適用されません。これには、Claude for Work、Claude for Government、Claude for Education、および、直接またはAmazon BedrockやGoogle CloudのVertex AIなどのサードパーティプラットフォームを介したすべてのAPI使用が含まれます。この区別は、商用クライアントおよびエンタープライズレベルのパートナーが、既存の、しばしばオーダーメイドのデータ契約およびプライバシーフレームワークを維持することを保証します。Amazon Bedrock AgentCoreのようなサービスを利用しているユーザーには、別途契約が適用されます。

選択肢の案内:オプトインと期限

Anthropicは、ユーザーが自身のデータを明確に管理できるようにすることにコミットしています。新規および既存のClaudeユーザーは、データ共有の選択を行うための異なるプロセスに直面します。Claudeにサインアップする新規ユーザーは、オンボーディングプロセスの一環として、モデルトレーニングに関する設定を選択するオプションを見つけ、最初からプライバシー設定を定義できます。

既存ユーザー向けには、Anthropicがアプリ内通知の段階的な展開を開始しました。これらのポップアップウィンドウは、ユーザーに更新された消費者向け利用規約とプライバシーポリシーを確認し、自身のデータをモデル改善に利用することを許可するかどうかを決定するよう促します。ユーザーは2025年10月8日まで選択を行う猶予期間があります。既存ユーザーがこの期限より前に新しいポリシーを受け入れ、オプトインすることを選択した場合、これらの変更はすべての新規または再開されたチャットおよびコーディングセッションに直ちに適用されます。指定された期日までに選択を行うことが重要です。2025年10月8日以降もClaudeを継続して使用するには、モデルトレーニング設定に関する選択が必須となるためです。これにより、ユーザーは自身のプライバシー環境の形成に積極的に関与できるようになります。

重要なのは、ユーザーの管理は一度きりの決定ではないということです。Anthropicは、Claudeインターフェース内の専用プライバシー設定セクションを通じて、いつでも設定を調整できることを強調しています。この柔軟性は、個人データに関する継続的なユーザーの自律性に対する同社のコミットメントを強調しています。

ポリシー比較:データ利用と保持

これらの更新の影響を明確にするため、新しい消費者向け利用規約におけるモデルトレーニングへのデータ利用のオプトインとオプトアウトの主な違いを以下の表にまとめます。

機能モデルトレーニングにオプトイン (新ポリシー)オプトアウト (既存/デフォルトポリシー)
データ利用新規/再開されたチャットおよびコーディングセッションは、モデル改善と安全性向上のために利用されます。新規/再開されたチャットおよびコーディングセッションは、モデルトレーニングには利用されません
データ保持期間オプトインされたデータは5年間。すべてのデータは30日間。
適用対象Claude Free、Pro、MaxアカウントおよびClaude Codeセッション。Claude Free、Pro、MaxアカウントおよびClaude Codeセッション。
除外対象商用利用規約、API、Amazon Bedrock、Google Vertex AIサービス。同じ除外対象。

長期的なAI開発のための戦略的データ保持

モデルトレーニングへのオプトインと並行して、Anthropicは参加を選択したユーザーに対してデータ保持期間の延長も導入しています。ユーザーが自身のデータをモデル改善のために許可することを選択した場合、新規または再開されたチャットおよびコーディングセッションの保持期間は5年間に延長されます。オプトインしないユーザーの場合、既存の30日間のデータ保持期間が引き続き適用されます。この延長された保持期間には、Claudeのプロンプトへの応答に関する提出されたフィードバックも含まれます。

5年間の保持期間の根拠は、高度なAI開発の現実に基づいています。大規模言語モデルは、リリース前に通常18〜24ヶ月にわたる開発サイクルを経ます。長期間にわたってデータの一貫性を維持することは、より安定した予測可能なモデルを作成するために不可欠です。一貫したデータにより、モデルは同様の方法でトレーニングおよび洗練され、ユーザーにとってよりスムーズな移行とアップグレードにつながります。

さらに、保持期間の延長は、Anthropicの内部分類器—誤用、乱用、スパム、その他の有害なパターンを特定し対抗するために使用される洗練されたシステム—の改善に大きく貢献します。これらの安全メカニズムは、長期間にわたって収集されたデータから学習することでより効果的になり、Claudeがすべての人にとって安全で有益なツールであり続ける能力を高めます。Anthropicは、The Anthropic Instituteのようなイニシアチブによって強調されているように、より広範なAI安全性の議論にもコミットしています。

ユーザーのプライバシーを保護するため、Anthropicは、モデルトレーニングや分析に使用される前に機密データをフィルタリングまたは匿名化するための高度なツールと自動化されたプロセスの組み合わせを採用しています。同社は、ユーザーデータを第三者に販売しないことを強く表明しており、オプトインされたデータの保持期間が延長された場合でも、プライバシーへのコミットメントを強化しています。ユーザーはオプトイン後もデータを管理できます。特定の会話を削除すると、将来のモデルトレーニングには使用されなくなります。

ユーザーのエンパワーメントとデータガバナンス

Anthropicの更新された消費者向け利用規約とプライバシーポリシーは、AI開発におけるユーザー中心のアプローチを強調しています。モデル改善への貢献を選択する権利をユーザーに直接与えることで、同社はより透明で協力的な関係を育むことを目指しています。これらの設定をいつでも変更できる機能は、ユーザーが自身のデータの流れを継続的に管理できることを保証します。

ユーザーが最初にモデルトレーニングにオプトインしたが、後で気が変わりオプトアウトすることにした場合、Anthropicには明確なポリシーがあります。以前に完了したモデルトレーニング実行で使用されたデータや、すでにリリースされているモデル内のデータは、それらのバージョン内に引き続き存在する可能性がありますが、オプトアウト決定後の新しいチャットやコーディングセッションは、将来のトレーニングには使用されません。同社は、設定が更新された後、以前に保存されたチャットやコーディングセッションを将来のモデルトレーニングの反復で使用することを停止することをコミットしています。これにより、ユーザーはプライバシー設定を動的に管理するための堅牢なメカニズムが得られます。

これらの更新は、データ駆動型AIイノベーションの計り知れない可能性と、ユーザーのプライバシーおよび透明性の最重要性とのバランスを取るための慎重な一歩を表しています。AIモデルが日常生活にますます統合されるにつれて、このようなポリシーは信頼を築き、倫理的な開発を確保するために不可欠です。

よくある質問

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

最新情報を入手

最新のAIニュースをメールでお届けします。

共有