Code Velocity
Моделі ШІ

Anthropic Claude: Оновлення Умов використання для споживачів та Політики конфіденційності

·5 хв читання·Anthropic·Першоджерело
Поділитися
Екран сповіщення про оновлення Умов використання для споживачів та Політики конфіденційності Anthropic Claude

Anthropic Впроваджує Ключові Оновлення Умов використання для споживачів та Політики конфіденційності Claude

Anthropic, провідна компанія з дослідження ШІ, оголосила про значні оновлення своїх Умов використання для споживачів та Політики конфіденційності для користувачів своїх моделей ШІ Claude. Ці зміни, що набувають чинності 28 серпня 2025 року, розроблені для надання користувачам більшого контролю над їхніми даними, одночасно дозволяючи Anthropic розробляти більш досконалі та безпечні системи ШІ. Основа цих оновлень зосереджена на механізмі згоди (opt-in) для використання даних у навчанні моделі та подовженому терміні зберігання даних для тих, хто бере участь.

Цей крок відображає зростаючу галузеву тенденцію до більшої прозорості та розширення можливостей користувачів у розробці штучного інтелекту. Дозволяючи користувачам активно обирати, чи сприятимуть їхні взаємодії навчанню Claude, Anthropic прагне створити середовище співпраці, яке принесе користь як окремим користувачам, так і ширшій екосистемі ШІ. Ця стратегічна еволюція споживчих політик підкреслює відданість компанії відповідальній розробці ШІ та довірі користувачів.

Покращення Claude завдяки інсайтам, що надаються користувачами, та засобам захисту

Основною зміною в оновленій політиці Anthropic є запровадження вибору користувача щодо використання даних для покращення моделі. Користувачі планів Claude Free, Pro та Max, включаючи тих, хто використовує Claude Code з пов'язаних облікових записів, тепер матимуть можливість дозволити своїм даним сприяти навчанню майбутніх моделей Claude. Ця участь позиціонується як важливий крок до побудови більш надійної та інтелектуальної ШІ.

Згода на використання цих даних пропонує кілька прямих переваг. За даними Anthropic, взаємодії користувачів надають цінні реальні інсайти, які допомагають удосконалити протоколи безпеки моделі, роблячи системи виявлення шкідливого контенту точнішими та менш схильними до помилкового маркування невинних розмов. Крім безпеки, очікується, що дані користувачів значно покращать основні можливості Claude, такі як навички кодування, аналітичне мислення та вміння вирішувати складні проблеми. Цей зворотний зв'язок є важливим для безперервної еволюції великих мовних моделей, що призводить до створення більш досконалих та корисних інструментів ШІ для всіх.

Важливо відзначити конкретну сферу застосування цих оновлень. Хоча вони застосовні до облікових записів споживчого рівня, ці зміни політики явно не поширюються на послуги, що регулюються Комерційними умовами Anthropic. Це включає Claude for Work, Claude for Government, Claude for Education та всі види використання API, будь то безпосередньо або через сторонні платформи, такі як Amazon Bedrock або Google Cloud Vertex AI. Це розмежування гарантує, що комерційні клієнти та партнери корпоративного рівня зберігають свої існуючі, часто індивідуальні, угоди про дані та рамки конфіденційності. Для користувачів, які використовують такі послуги, як Amazon Bedrock AgentCore, залишаються чинними окремі угоди.

Ваш Вибір: Згода та Кінцеві Терміни

Anthropic прагне надати користувачам чіткий контроль над їхніми даними. Як нові, так і існуючі користувачі Claude зіткнуться з різними процесами для здійснення свого вибору щодо обміну даними. Нові користувачі, які реєструються в Claude, знайдуть опцію вибору своїх уподобань щодо навчання моделі як невід'ємну частину процесу онбордингу, що дозволить їм визначити свої налаштування конфіденційності з самого початку.

Для існуючих користувачів Anthropic розпочав поетапне розгортання сповіщень у додатку. Ці спливаючі вікна запропонують користувачам переглянути оновлені Умови використання для споживачів та Політику конфіденційності та вирішити, чи дозволяти використовувати їхні дані для покращення моделі. Користувачі мають пільговий період до 8 жовтня 2025 року, щоб зробити свій вибір. Якщо існуючий користувач вирішить прийняти нові політики та погодитися до цього терміну, ці зміни негайно набудуть чинності для всіх нових або відновлених чатів та сесій кодування. Важливо, щоб користувачі зробили вибір до зазначеної дати, оскільки подальше використання Claude після 8 жовтня 2025 року вимагатиме вибору щодо налаштування навчання моделі. Це гарантує, що користувачі активно беруть участь у формуванні свого ландшафту конфіденційності.

Критично важливо, що контроль користувача не є одноразовим рішенням. Anthropic наголошує, що переваги можна коригувати в будь-який момент через спеціальний розділ Налаштувань конфіденційності в інтерфейсі Claude. Ця гнучкість підкреслює прихильність компанії до постійної автономії користувачів щодо їхніх персональних даних.

Порівняння Політик: Використання та Зберігання Даних

Щоб прояснити вплив цих оновлень, наступна таблиця узагальнює ключові відмінності між згодою та відмовою від використання даних для навчання моделі відповідно до нових Умов використання для споживачів:

ФункціяЗгода на навчання моделі (Нова політика)Відмова (Існуюча/Типова політика)
Використання данихНові/відновлені чати та сесії кодування використовуються для покращення моделі та безпеки.Нові/відновлені чати та сесії кодування не використовуються для навчання моделі.
Термін зберігання даних5 років для даних, на які надано згоду.30 днів для всіх даних.
Застосовується доОблікові записи Claude Free, Pro, Max та сесії Claude Code.Облікові записи Claude Free, Pro, Max та сесії Claude Code.
ВиключенняКомерційні умови, API, Amazon Bedrock, сервіси Google Vertex AI.Ті самі виключення.

Стратегічне Зберігання Даних для Довгострокової Розробки ШІ

Поряд зі згодою на навчання моделі, Anthropic також запроваджує подовжений термін зберігання даних для користувачів, які вирішили брати участь. Якщо користувач погоджується дозволити використання своїх даних для покращення моделі, термін зберігання для нових або відновлених чатів та сесій кодування буде подовжено до п'яти років. Для користувачів, які не погоджуються, буде й надалі застосовуватися існуючий 30-денний термін зберігання даних. Це подовжене зберігання також охоплює відгуки, надані щодо відповідей Claude на запити.

Обґрунтування п'ятирічного терміну зберігання глибоко вкорінене в реаліях розробки передового ШІ. Великі мовні моделі проходять цикли розробки, які часто тривають від 18 до 24 місяців до випуску. Підтримка узгодженості даних протягом довших періодів є життєво важливою для створення більш стабільних та передбачуваних моделей. Узгоджені дані дозволяють навчати та вдосконалювати моделі подібними способами, що призводить до більш плавних переходів та оновлень для користувачів.

Крім того, подовжене зберігання значно допомагає покращити внутрішні класифікатори Anthropic — складні системи, які використовуються для ідентифікації та протидії неправильному використанню, зловживанням, спаму та іншим шкідливим моделям. Ці механізми безпеки стають ефективнішими, навчаючись на даних, зібраних протягом тривалих періодів, підвищуючи здатність Claude залишатися безпечним та корисним інструментом для всіх. Anthropic також відданий ширшим дискусіям щодо безпеки ШІ, як це підкреслюється такими ініціативами, як The Anthropic Institute.

Для захисту конфіденційності користувачів Anthropic використовує комбінацію передових інструментів та автоматизованих процесів для фільтрації або обфускації конфіденційних даних перед їх використанням для будь-якого навчання моделі або аналізу. Компанія категорично заявляє, що не продає дані користувачів третім сторонам, підкріплюючи свою прихильність до конфіденційності навіть при подовженому зберіганні даних, на які надано згоду. Користувачі зберігають контроль над своїми даними навіть після надання згоди; видалення конкретної розмови гарантує, що вона не буде використовуватися для майбутнього навчання моделі.

Розширення Можливостей Користувачів та Управління Даними

Оновлені Умови використання для споживачів та Політика конфіденційності Anthropic підкреслюють користувацько-орієнтований підхід до розробки ШІ. Передаючи вибір щодо внеску в покращення моделі безпосередньо в руки користувача, компанія прагне сприяти більш прозорим та спільним відносинам. Можливість змінювати ці налаштування в будь-який час гарантує, що користувачі зберігають постійний контроль над шляхом своїх даних.

Якщо користувач спочатку дав згоду на навчання моделі, але пізніше вирішив змінити своє рішення та відмовитися, Anthropic має чітку політику. Хоча дані, використані в раніше завершених запусків навчання моделі та вже випущених моделях, все ще можуть існувати в цих версіях, будь-які нові чати та сесії кодування після рішення про відмову не будуть використовуватися для майбутнього навчання. Компанія зобов'язується припинити використання раніше збережених чатів та сесій кодування в будь-яких майбутніх ітераціях навчання моделі після оновлення налаштувань. Це пропонує надійний механізм для динамічного управління користувачами своїми налаштуваннями конфіденційності.

Ці оновлення є виваженим кроком до збалансування величезного потенціалу інновацій ШІ, що базуються на даних, з найважливішим значенням конфіденційності користувачів та прозорості. Оскільки моделі ШІ все більше інтегруються в повсякденне життя, такі політики є вирішальними для побудови довіри та забезпечення етичного розвитку.

Поширені запитання

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Будьте в курсі

Отримуйте найсвіжіші новини ШІ на пошту.

Поділитися