title: "Anthropic Claude: 소비자 약관 및 개인정보 처리방침 업데이트" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "ko" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI 모델" keywords:
- Anthropic
- Claude AI
- 소비자 약관
- 개인정보 처리방침
- 데이터 사용
- 모델 학습
- AI 안전
- 데이터 보존
- 사용자 선호도
- AI 개발
- LLM 정책
- 투명성 meta_description: "Anthropic이 Claude의 소비자 약관 및 개인정보 처리방침의 주요 업데이트를 발표합니다. 이는 사용자에게 모델 개선을 위한 데이터 사용 제어 권한을 제공하고, 안전 및 개발을 위해 데이터 보존 기간을 연장하는 내용을 포함합니다." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude 소비자 약관 및 개인정보 처리방침 업데이트 알림 화면" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Anthropic이 Claude 사용자들을 위해 업데이트된 소비자 약관 및 개인정보 처리방침에서 도입한 핵심 변경 사항은 무엇인가요?" answer: "Anthropic은 Claude AI 모델 개선을 위한 데이터 사용을 허용할지 여부를 사용자가 선택할 수 있도록 하는 데 중점을 둔 중요한 업데이트를 소비자 약관 및 개인정보 처리방침에 적용하고 있습니다. 이 설정이 활성화되면 Claude Code 세션을 포함한 무료, Pro, Max 계정의 데이터가 새로운 모델 학습에 기여하게 됩니다. 이는 코딩, 분석, 추론과 같은 영역에서 모델의 안전성, 정확성, 기능 향상을 목표로 합니다. 또한, 옵트인하는 사용자에게는 데이터 보존 기간이 5년으로 연장됩니다. 반대로, 모델 학습을 위해 옵트인하지 않는 사용자의 경우 기존의 30일 데이터 보존 정책이 유지됩니다. 이러한 변경 사항은 특정 기업 계약 하의 상업 사용자 또는 API 사용에는 영향을 미치지 않으며, 다양한 사용자 부문에 대해 별도의 정책을 보장합니다."
- question: "어떤 Claude 서비스 및 사용자 유형이 이번 새로운 정책 업데이트의 영향을 받으며, 어떤 서비스는 영향을 받지 않나요?" answer: "업데이트된 소비자 약관 및 개인정보 처리방침은 Anthropic의 Claude 무료, Pro, Max 플랜을 사용하는 개별 사용자에게 구체적으로 적용됩니다. 여기에는 이러한 소비자 플랜과 연관된 계정을 통해 Claude Code와 상호 작용하는 경우도 포함됩니다. 그러나, 이러한 업데이트는 Anthropic의 상업적 약관(Commercial Terms) 하에 운영되는 서비스에는 적용되지 않는다는 점을 이해하는 것이 중요합니다. 이는 Claude for Work (팀 및 기업 플랜 포함), Claude for Government, Claude for Education, 그리고 Amazon Bedrock 또는 Google Cloud의 Vertex AI와 같은 제3자 플랫폼을 통한 직접 또는 간접적인 모든 API 사용이 이러한 새로운 소비자 중심 정책 변경에서 명시적으로 제외됨을 의미합니다. 상업 사용자 및 API 통합자는 별도의 개인정보 및 데이터 처리 조항을 포함하는 기존 계약에 따라 계속 운영됩니다."
- question: "Anthropic은 왜 이러한 변경, 특히 모델 학습을 위한 데이터 사용 및 연장된 보존에 관하여 이러한 변경을 하는 것인가요?" answer: "Anthropic은 이러한 변경이 Claude와 같은 대규모 언어 모델의 기능, 안전성 및 유용성을 지속적으로 개선해야 하는 근본적인 필요성에서 비롯된다고 밝힙니다. 실제 상호작용은 모델이 어떤 응답이 가장 유용하고, 정확하며, 안전한지 학습하는 데 도움이 되는 귀중한 데이터 신호를 제공합니다. 예를 들어, 개발자가 Claude를 사용하여 코드를 디버깅하는 것은 미래 코딩 기능 개선을 위한 중요한 통찰력을 제공합니다. 특히 옵트인하는 사용자를 위한 5년 연장된 데이터 보존은 AI의 긴 개발 주기를 지원하고, 보다 안정적인 모델 업그레이드를 위한 데이터 일관성을 보장하며, 남용이나 스팸과 같은 유해한 사용 패턴을 장기간에 걸쳐 감지하고 완화하는 내부 분류기의 효율성을 향상시켜 궁극적으로 Claude를 모두에게 더 안전하게 만들기 위해 고안되었습니다."
- question: "기존 및 신규 Claude 사용자는 이러한 정책 업데이트 및 데이터 선호도와 관련하여 어떤 조치를 취해야 하나요?" answer: "기존 Claude 사용자는 업데이트를 검토하고 채팅 및 코딩 세션을 모델 개선에 사용할지 여부에 대한 결정을 내리도록 유도하는 앱 내 알림을 받게 됩니다. 사용자는 2025년 10월 8일까지 이 선택을 해야 합니다. 이 기한 전에 동의를 선택하면, 새로운 정책이 즉시 새로운 채팅 또는 재개된 채팅에 적용됩니다. 마감일 이후에는 Claude를 계속 사용하려면 선택이 필수적입니다. 신규 사용자는 초기 가입 절차의 일부로 이 선택 사항을 제시받게 됩니다. 신규 사용자든 기존 사용자든 관계없이, Claude 인터페이스 내의 전용 개인정보 설정(Privacy Settings)을 통해 언제든지 선호도를 수정할 수 있어 개인 데이터 사용에 대한 지속적인 제어 및 투명성을 보장합니다."
- question: "사용자가 처음에 모델 학습을 위해 데이터를 허용했다가 나중에 마음을 바꾸어 옵트아웃하기로 결정하면 어떻게 되나요?" answer: "Anthropic은 사용자가 데이터 선호도를 완전히 제어할 수 있으며, 개인정보 설정(Privacy Settings)을 통해 언제든지 선택을 업데이트할 수 있음을 강조합니다. 사용자가 처음에 모델 학습에 옵트인했다가 나중에 이 설정을 끄기로 결정하면, Claude와의 새로운 채팅 및 코딩 세션은 더 이상 향후 모델 학습 실행에 사용되지 않습니다. 그러나 이미 완료된 모델 학습 실행 및 이미 출시된 모델의 데이터에는 과거 상호작용의 데이터가 여전히 포함될 수 있다는 점에 유의하는 것이 중요합니다. 그럼에도 불구하고, Anthropic은 옵트아웃 선호도가 등록되면 이전에 저장된 채팅 및 코딩 세션을 향후 모델 학습 반복에 사용하는 것을 중단하여, 지속적인 데이터 사용 및 개인정보 보호에 대한 사용자의 업데이트된 선택을 존중할 것을 약속합니다."
- question: "Anthropic은 특히 연장된 보존 기간에도 불구하고 이러한 새로운 정책으로 사용자 개인정보 및 데이터 보호를 어떻게 보장하나요?" answer: "사용자 개인정보 보호를 위해 Anthropic은 옵트인한 사용자를 위한 연장된 보존 기간에도 불구하고, 모델 학습에 사용되기 전에 민감한 데이터를 필터링하거나 난독화하도록 설계된 고급 도구와 자동화된 프로세스를 결합하여 사용합니다. 회사는 사용자 데이터를 제3자에게 판매하지 않는다고 명시적으로 밝히며 개인정보 보호에 대한 약속을 강화합니다. 또한, 사용자는 통제권을 유지합니다. 대화를 삭제하면 향후 모델 학습에 사용되지 않으며, 옵트인 설정을 변경하면 새로운 채팅이 사용되는 것을 방지합니다. 이러한 조치는 데이터 기반 모델 개선의 필요성과 엄격한 개인정보 보호 조치 간의 균형을 맞추어 AI 개발 수명 주기 전반에 걸쳐 사용자 신뢰와 데이터 보안을 보장하는 것을 목표로 합니다. 이러한 포괄적인 접근 방식은 책임 있는 AI 관행에 대한 Anthropic의 헌신을 강조합니다."
# Anthropic, Claude의 소비자 약관 및 개인정보 처리방침 주요 업데이트 발표
선도적인 AI 연구 기업 Anthropic이 Claude AI 모델 사용자들을 위한 소비자 약관 및 개인정보 처리방침에 중요한 업데이트를 발표했습니다. 2025년 8월 28일부로 시행되는 이번 변경 사항은 Anthropic이 더 유능하고 안전한 AI 시스템을 개발하는 동시에 사용자에게 데이터에 대한 더 큰 통제권을 부여하도록 설계되었습니다. 이러한 업데이트의 핵심은 모델 학습을 위한 데이터 사용에 대한 옵트인 메커니즘과 참여자를 위한 데이터 보존 기간 연장에 중점을 둡니다.
이번 조치는 인공지능 개발에서 투명성과 사용자 주체성을 강화하려는 업계의 증가하는 추세를 반영합니다. 사용자가 자신의 상호작용이 Claude의 학습에 기여할지 여부를 적극적으로 선택할 수 있도록 함으로써, Anthropic은 개별 사용자와 광범위한 AI 생태계 모두에 이점을 제공하는 협력적인 환경을 조성하고자 합니다. 소비자 지향 정책의 이러한 전략적 진화는 책임감 있는 AI 개발과 사용자 신뢰에 대한 회사의 약속을 강조합니다.
## 사용자 주도 통찰력 및 안전 장치로 Claude 강화
Anthropic의 업데이트된 정책에서 가장 중요한 변경 사항은 모델 개선을 위한 데이터 활용에 대한 사용자 선택권 도입입니다. Claude의 무료, Pro, Max 플랜 사용자들, 그리고 관련 계정에서 Claude Code를 활용하는 사용자들은 이제 자신의 데이터가 미래 Claude 모델 학습에 기여하도록 허용할 수 있는 옵션을 갖게 됩니다. 이러한 참여는 더욱 강력하고 지능적인 AI를 구축하기 위한 중요한 단계로 자리매김합니다.
데이터 사용에 옵트인하는 것은 여러 직접적인 이점을 제공합니다. Anthropic에 따르면, 사용자 상호작용은 모델 안전 프로토콜을 개선하는 데 도움이 되는 귀중한 실제 통찰력을 제공하여 유해 콘텐츠를 감지하는 시스템을 더 정확하게 만들고 무해한 대화를 잘못 표시할 가능성을 줄입니다. 안전을 넘어, 사용자 데이터는 코딩 능력, 분석적 추론, 복잡한 문제 해결 기술과 같은 Claude의 핵심 기능을 크게 향상시킬 것으로 예상됩니다. 이러한 피드백 루프는 대규모 언어 모델의 지속적인 진화에 필수적이며, 모든 사람에게 더 정교하고 유용한 AI 도구를 제공합니다.
이러한 업데이트의 특정 범위에 유의하는 것이 중요합니다. 소비자 등급 계정에 적용되지만, 이러한 정책 변경 사항은 Anthropic의 상업적 약관(Commercial Terms)에 따라 관리되는 서비스에는 명시적으로 **적용되지 않습니다**. 여기에는 Claude for Work, Claude for Government, Claude for Education, 그리고 Amazon Bedrock 또는 Google Cloud의 Vertex AI와 같은 제3자 플랫폼을 통한 직접 또는 간접적인 모든 API 사용이 포함됩니다. 이러한 구분은 상업 고객 및 기업 수준 파트너가 기존의, 종종 맞춤형 데이터 계약 및 개인정보 보호 프레임워크를 유지하도록 보장합니다. [Amazon Bedrock AgentCore](/ko/amazon-bedrock-agentcore)와 같은 서비스를 활용하는 사용자의 경우, 별도의 계약이 유지됩니다.
## 선택 탐색: 옵트인 및 마감일
Anthropic은 사용자에게 데이터에 대한 명확한 통제권을 제공하기 위해 노력하고 있습니다. 신규 및 기존 Claude 사용자 모두 데이터 공유 선택을 위한 별도의 절차를 거치게 됩니다. Claude에 가입하는 신규 사용자는 온보딩 프로세스의 필수적인 부분으로 모델 학습에 대한 선호도를 선택하는 옵션을 찾게 되며, 이를 통해 처음부터 개인정보 설정(Privacy Settings)을 정의할 수 있습니다.
기존 사용자의 경우, Anthropic은 앱 내 알림의 단계적 출시를 시작했습니다. 이러한 팝업 창은 사용자에게 업데이트된 소비자 약관 및 개인정보 처리방침을 검토하고 자신의 데이터가 모델 개선에 사용되도록 허용할지 여부를 결정하도록 유도합니다. 사용자는 **2025년 10월 8일**까지 선택할 수 있는 유예 기간이 있습니다. 기존 사용자가 이 마감일 이전에 새로운 정책에 동의하고 옵트인하기로 선택하면, 이러한 변경 사항은 모든 새로운 채팅 또는 재개된 채팅 및 코딩 세션에 즉시 적용됩니다. 지정된 날짜까지 사용자가 선택하는 것이 중요합니다. 왜냐하면 2025년 10월 8일 이후 Claude를 계속 사용하려면 모델 학습 설정에 대한 선택이 필요하기 때문입니다. 이는 사용자가 자신의 개인정보 보호 환경을 형성하는 데 적극적으로 참여하도록 보장합니다.
결정적으로, 사용자 통제는 한 번의 결정으로 끝나지 않습니다. Anthropic은 Claude 인터페이스 내의 전용 개인정보 설정(Privacy Settings) 섹션을 통해 언제든지 선호도를 조정할 수 있음을 강조합니다. 이러한 유연성은 개인 데이터에 대한 지속적인 사용자 자율성에 대한 회사의 약속을 강조합니다.
## 정책 비교: 데이터 사용 및 보존
이러한 업데이트의 영향을 명확히 하기 위해 다음 표는 새로운 소비자 약관에 따른 모델 학습을 위한 데이터 사용 옵트인과 옵트아웃 간의 주요 차이점을 요약합니다.
| 기능 | 모델 학습 옵트인 (새 정책) | 옵트아웃 (기존/기본 정책) |
| :------------------- | :----------------------------------------------------- | :-------------------------------------------------- |
| **데이터 사용** | 신규/재개된 채팅 및 코딩 세션은 모델 개선 및 안전에 사용됩니다. | 신규/재개된 채팅 및 코딩 세션은 모델 학습에 **사용되지 않습니다**. |
| **데이터 보존 기간** | 옵트인된 데이터의 경우 5년. | 모든 데이터의 경우 30일. |
| **적용 대상** | Claude 무료, Pro, Max 계정 및 Claude Code 세션. | Claude 무료, Pro, Max 계정 및 Claude Code 세션. |
| **제외 사항** | 상업적 약관, API, Amazon Bedrock, Google Vertex AI 서비스. | 동일한 제외 사항. |
## 장기적인 AI 개발을 위한 전략적 데이터 보존
모델 학습 옵트인과 함께 Anthropic은 참여를 선택하는 사용자를 위해 연장된 데이터 보존 기간도 도입하고 있습니다. 사용자가 모델 개선을 위해 데이터를 허용하기로 선택하면, 새로운 채팅 또는 재개된 채팅 및 코딩 세션의 보존 기간이 5년으로 연장됩니다. 옵트인하지 않는 사용자의 경우, 기존의 30일 데이터 보존 기간이 계속 적용됩니다. 이 연장된 보존 기간은 Claude의 응답에 대한 제출된 피드백도 포함합니다.
5년 보존 기간의 배경에는 고급 AI 개발의 현실이 깊이 뿌리 박혀 있습니다. 대규모 언어 모델은 출시되기 전에 종종 18개월에서 24개월에 걸쳐 개발 주기를 거칩니다. 더 안정적이고 예측 가능한 모델을 만들기 위해서는 장기간에 걸쳐 데이터 일관성을 유지하는 것이 중요합니다. 일관된 데이터는 모델을 유사한 방식으로 학습하고 정제할 수 있도록 하여 사용자에게 더 원활한 전환과 업그레이드를 제공합니다.
또한, 연장된 보존 기간은 Anthropic의 내부 분류기, 즉 오용, 남용, 스팸 및 기타 유해 패턴을 식별하고 대응하는 데 사용되는 정교한 시스템을 개선하는 데 크게 도움이 됩니다. 이러한 안전 메커니즘은 장기간에 걸쳐 수집된 데이터로부터 학습함으로써 더욱 효과적으로 작동하며, Claude가 모든 사람에게 안전하고 유익한 도구로 유지될 수 있도록 능력을 향상시킵니다. Anthropic은 [The Anthropic Institute](/ko/the-anthropic-institute)와 같은 이니셔티브를 통해 더 광범위한 AI 안전 논의에도 전념하고 있습니다.
사용자 개인정보를 보호하기 위해 Anthropic은 모델 학습 또는 분석에 사용되기 전에 민감한 데이터를 필터링하거나 난독화하도록 설계된 고급 도구와 자동화된 프로세스를 결합하여 사용합니다. 회사는 옵트인된 데이터에 대한 연장된 보존 기간에도 불구하고 사용자 데이터를 제3자에게 판매하지 않는다고 강력히 밝히며 개인정보 보호에 대한 약속을 강화합니다. 사용자는 옵트인한 후에도 데이터에 대한 통제권을 유지합니다. 특정 대화를 삭제하면 향후 모델 학습에 사용되지 않습니다.
## 사용자 권한 강화 및 데이터 거버넌스
Anthropic의 업데이트된 소비자 약관 및 개인정보 처리방침은 AI 개발에 대한 사용자 중심 접근 방식을 강조합니다. 모델 개선에 기여할 선택권을 사용자에게 직접 부여함으로써, 회사는 더 투명하고 협력적인 관계를 조성하고자 합니다. 언제든지 이러한 선호도를 수정할 수 있는 능력은 사용자가 데이터 여정에 대한 지속적인 통제권을 유지하도록 보장합니다.
사용자가 처음에 모델 학습에 옵트인했다가 나중에 마음을 바꾸어 옵트아웃하기로 결정할 경우, Anthropic에는 명확한 정책이 있습니다. 이전에 완료된 모델 학습 실행 및 이미 출시된 모델에 사용된 데이터는 해당 버전 내에 여전히 존재할 수 있지만, 옵트아웃 결정 이후의 *새로운* 채팅 및 코딩 세션은 향후 학습에 사용되지 않습니다. 회사는 선호도가 업데이트되면 이전에 저장된 채팅 및 코딩 세션을 *향후* 모델 학습 반복에 사용하는 것을 중단할 것을 약속합니다. 이는 사용자가 개인정보 설정을 동적으로 관리할 수 있는 강력한 메커니즘을 제공합니다.
이러한 업데이트는 데이터 기반 AI 혁신의 막대한 잠재력과 사용자 개인정보 보호 및 투명성의 지대한 중요성 사이의 균형을 맞추기 위한 신중한 조치를 나타냅니다. AI 모델이 일상생활에 점점 더 통합됨에 따라, 이러한 정책은 신뢰를 구축하고 윤리적 개발을 보장하는 데 매우 중요합니다.
자주 묻는 질문
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.
최신 소식 받기
최신 AI 뉴스를 이메일로 받아보세요.
