Code Velocity
Модели ИИ

Anthropic Claude: Обновления Условий Использования для Потребителей и Политики Конфиденциальности

·5 мин чтения·Anthropic·Первоисточник
Поделиться
Экран уведомления об обновлении Условий использования для потребителей и Политики конфиденциальности Anthropic Claude

Anthropic Внедряет Ключевые Обновления Условий Использования для Потребителей и Политики Конфиденциальности Claude

Anthropic, ведущая исследовательская компания в области ИИ, объявила о значительных обновлениях своих Условий использования для потребителей и Политики конфиденциальности для пользователей моделей Claude AI. Эти изменения, вступающие в силу 28 августа 2025 года, призваны предоставить пользователям больший контроль над их данными, одновременно позволяя Anthropic разрабатывать более совершенные и безопасные системы ИИ. Основой этих обновлений является механизм согласия на использование данных для обучения модели и продленный период хранения данных для тех, кто участвует.

Этот шаг отражает растущую тенденцию в отрасли к большей прозрачности и расширению прав и возможностей пользователей в разработке искусственного интеллекта. Позволяя пользователям активно выбирать, будут ли их взаимодействия способствовать обучению Claude, Anthropic стремится создать среду сотрудничества, которая приносит пользу как отдельным пользователям, так и более широкой экосистеме ИИ. Эта стратегическая эволюция потребительских политик подчеркивает приверженность компании ответственной разработке ИИ и доверию пользователей.

Улучшение Claude с помощью Пользовательских Данных и Защитных Мер

Основное изменение в обновленной политике Anthropic — это введение выбора пользователя в отношении использования данных для улучшения модели. Пользователи планов Claude Free, Pro и Max, включая тех, кто использует Claude Code из связанных учетных записей, теперь будут иметь возможность разрешить своим данным участвовать в обучении будущих моделей Claude. Это участие позиционируется как важный шаг к созданию более надежного и интеллектуального ИИ.

Согласие на использование данных дает несколько прямых преимуществ. По данным Anthropic, взаимодействия с пользователями предоставляют ценную информацию из реального мира, которая помогает совершенствовать протоколы безопасности модели, делая системы обнаружения вредоносного контента более точными и менее склонными к ложному срабатыванию на безобидные разговоры. Помимо безопасности, ожидается, что пользовательские данные значительно улучшат основные возможности Claude, такие как владение кодированием, аналитическое мышление и навыки решения сложных проблем. Эта обратная связь необходима для постоянной эволюции больших языковых моделей, что приводит к созданию более совершенных и полезных инструментов ИИ для всех.

Важно отметить конкретную сферу действия этих обновлений. Хотя они применимы к учетным записям потребительского уровня, эти изменения политики явно не распространяются на услуги, регулируемые Коммерческими условиями Anthropic. Это включает Claude for Work, Claude for Government, Claude for Education и все виды использования API, будь то напрямую или через сторонние платформы, такие как Amazon Bedrock или Google Cloud’s Vertex AI. Это различие гарантирует, что коммерческие клиенты и корпоративные партнеры сохраняют свои существующие, часто индивидуальные, соглашения о данных и системы конфиденциальности. Для пользователей, использующих такие сервисы, как Amazon Bedrock AgentCore, действуют отдельные соглашения.

Ориентация в Вашем Выборе: Согласие и Крайние Сроки

Anthropic стремится предоставить пользователям четкий контроль над их данными. Как новые, так и существующие пользователи Claude столкнутся с различными процессами для выбора настроек обмена данными. Новые пользователи, регистрирующиеся в Claude, найдут возможность выбрать свои предпочтения в отношении обучения модели как неотъемлемую часть процесса регистрации, что позволит им определить свои настройки конфиденциальности с самого начала.

Для существующих пользователей Anthropic начала поэтапное развертывание уведомлений в приложении. Эти всплывающие окна предложат пользователям ознакомиться с обновленными Условиями использования для потребителей и Политикой конфиденциальности и решить, разрешать ли использование их данных для улучшения модели. У пользователей есть льготный период до 8 октября 2025 года, чтобы сделать свой выбор. Если существующий пользователь решит принять новые политики и дать согласие до этого крайнего срока, эти изменения вступят в силу немедленно для всех новых или возобновленных чатов и сеансов кодирования. Крайне важно, чтобы пользователи сделали выбор к указанной дате, поскольку дальнейшее использование Claude после 8 октября 2025 года потребует выбора в настройках обучения модели. Это гарантирует активное участие пользователей в формировании их ландшафта конфиденциальности.

Важно отметить, что контроль пользователя — это не одноразовое решение. Anthropic подчеркивает, что предпочтения могут быть скорректированы в любой момент через специальный раздел Настроек конфиденциальности в интерфейсе Claude. Эта гибкость подчеркивает приверженность компании постоянной автономии пользователей в отношении их личных данных.

Сравнение Политик: Использование Данных и Хранение

Чтобы прояснить влияние этих обновлений, следующая таблица суммирует ключевые различия между согласием и отказом от использования данных для обучения модели в соответствии с новыми Условиями использования для потребителей:

ФункцияСогласие на обучение модели (Новая политика)Отказ (Существующая/Политика по умолчанию)
Использование данныхНовые/возобновленные чаты и сеансы кодирования используются для улучшения модели и безопасности.Новые/возобновленные чаты и сеансы кодирования не используются для обучения модели.
Период хранения данных5 лет для данных, по которым дано согласие.30 дней для всех данных.
Применяется кУчетные записи Claude Free, Pro, Max и сеансы Claude Code.Учетные записи Claude Free, Pro, Max и сеансы Claude Code.
ИсключенияКоммерческие условия, API, Amazon Bedrock, сервисы Google Vertex AI.Те же исключения.

Стратегическое Хранение Данных для Долгосрочной Разработки ИИ

Наряду с согласием на обучение модели, Anthropic также вводит расширенный период хранения данных для пользователей, которые решат участвовать. Если пользователь согласится на использование своих данных для улучшения модели, период хранения для новых или возобновленных чатов и сеансов кодирования будет продлен до пяти лет. Для пользователей, которые не дадут согласие, будет по-прежнему применяться существующий 30-дневный период хранения данных. Это расширенное хранение также охватывает отзывы, отправленные о ответах Claude на запросы.

Обоснование пятилетнего периода хранения глубоко укоренено в реалиях разработки передового ИИ. Большие языковые модели проходят циклы разработки, которые часто занимают от 18 до 24 месяцев до выпуска. Поддержание согласованности данных в течение более длительных периодов имеет жизненно важное значение для создания более стабильных и предсказуемых моделей. Согласованные данные позволяют обучать и совершенствовать модели аналогичными способами, что приводит к более плавным переходам и обновлениям для пользователей.

Кроме того, расширенное хранение значительно помогает улучшить внутренние классификаторы Anthropic — сложные системы, используемые для выявления и противодействия неправомерному использованию, злоупотреблениям, спаму и другим вредоносным шаблонам. Эти механизмы безопасности становятся более эффективными, обучаясь на данных, собранных в течение длительных периодов, что повышает способность Claude оставаться безопасным и полезным инструментом для всех. Anthropic также привержена более широким дискуссиям о безопасности ИИ, о чем свидетельствуют такие инициативы, как The Anthropic Institute.

Для защиты конфиденциальности пользователей Anthropic использует комбинацию передовых инструментов и автоматизированных процессов для фильтрации или скрытия конфиденциальных данных до их использования для любого обучения или анализа модели. Компания категорически заявляет, что не продает пользовательские данные третьим сторонам, подтверждая свою приверженность конфиденциальности даже при расширенном хранении данных, по которым дано согласие. Пользователи сохраняют контроль над своими данными даже после дачи согласия; удаление конкретной беседы гарантирует, что она не будет использоваться для будущего обучения модели.

Расширение Прав и Возможностей Пользователей и Управление Данными

Обновленные Условия использования для потребителей и Политика конфиденциальности Anthropic подчеркивают клиентоориентированный подход к разработке ИИ. Предоставляя пользователю выбор вносить вклад в улучшение модели, компания стремится развивать более прозрачные и совместные отношения. Возможность изменять эти предпочтения в любое время гарантирует, что пользователи сохраняют постоянный контроль над путем своих данных.

Если пользователь изначально дал согласие на обучение модели, но позже передумал и решил отказаться, у Anthropic есть четкая политика. Хотя данные, использованные в ранее завершенных запусках обучения модели и уже выпущенных моделях, могут по-прежнему существовать в этих версиях, любые новые чаты и сеансы кодирования после принятия решения об отказе не будут использоваться для будущего обучения. Компания обязуется прекратить использование ранее сохраненных чатов и сеансов кодирования в любых будущих итерациях обучения модели после обновления предпочтений. Это предлагает надежный механизм для пользователей, позволяющий динамически управлять своими настройками конфиденциальности.

Эти обновления представляют собой взвешенный шаг к балансированию огромного потенциала инноваций в области ИИ, основанных на данных, с первостепенной важностью конфиденциальности пользователей и прозрачности. По мере того как модели ИИ все больше интегрируются в повседневную жизнь, такие политики имеют решающее значение для построения доверия и обеспечения этического развития.

Часто задаваемые вопросы

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Будьте в курсе

Получайте последние новости ИИ на почту.

Поделиться