Code Velocity
AI Модели

Anthropic Claude: Актуализации на потребителските условия и политиката за поверителност

·5 мин четене·Anthropic·Оригинален източник
Сподели
Екран за известие за актуализация на потребителските условия и политиката за поверителност на Anthropic Claude

title: "Anthropic Claude: Актуализации на потребителските условия и политиката за поверителност" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "bg" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI Модели" keywords:

  • Anthropic
  • Claude AI
  • Потребителски условия
  • Политика за поверителност
  • Използване на данни
  • Обучение на модел
  • Безопасност на AI
  • Съхранение на данни
  • Потребителски предпочитания
  • Развитие на AI
  • Политика за LLM
  • Прозрачност meta_description: "Anthropic обявява ключови актуализации на потребителските условия и политиката за поверителност на Claude, предлагайки на потребителите контрол върху използването на данни за подобряване на модела и удължаване на срока за съхранение на данни за безопасност и разработка." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Екран за известие за актуализация на потребителските условия и политиката за поверителност на Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Какви са основните промени, въведени в актуализираните потребителски условия и политика за поверителност на Anthropic за потребителите на Claude?" answer: "Anthropic въвежда значителни актуализации на своите потребителски условия и политика за поверителност, които са насочени основно към предоставяне на възможност на потребителите да изберат дали данните им да бъдат използвани за подобряване на AI моделите на Claude. Когато тази настройка е активирана, данни от Free, Pro и Max акаунти, включително сесии на Claude Code, ще допринасят за обучението на нови модели. Целта е да се подобри безопасността, точността и възможностите на модела в области като кодиране, анализ и разсъждение. Освен това, за потребителите, които се включат, периодът за съхранение на данни ще бъде удължен до пет години. Обратно, ако потребителите решат да не се включат за обучение на модела, съществуващата 30-дневна политика за съхранение на данни ще остане в сила. Тези промени не засягат бизнес потребителите по конкретни корпоративни споразумения или използване на API, като осигуряват различни политики за различните потребителски сегменти."
  • question: "Кои услуги на Claude и типове потребители са засегнати от тези нови актуализации на политиката и кои не?" answer: "Актуализираните потребителски условия и политика за поверителност се отнасят конкретно за индивидуални потребители на плановете Free, Pro и Max на Claude на Anthropic. Това включва случаи, при които потребителите взаимодействат с Claude Code чрез акаунти, свързани с тези потребителски планове. Важно е обаче да се разбере, че тези актуализации не се отнасят за услуги, работещи съгласно търговските условия на Anthropic. Това означава, че Claude for Work (включително планове за екипи и предприятия), Claude for Government, Claude for Education и всички използвания на API – независимо дали директно или чрез платформи на трети страни като Amazon Bedrock или Vertex AI на Google Cloud – са изрично изключени от тези нови промени в политиката, насочени към потребителите. Търговските потребители и интеграторите на API ще продължат да работят съгласно съществуващите си споразумения, които имат отделни разпоредби за поверителност и обработка на данни."
  • question: "Защо Anthropic прави тези промени, особено по отношение на използването на данни за обучение на модела и удълженото съхранение?" answer: "Anthropic заявява, че тези промени са продиктувани от основната необходимост непрекъснато да се подобряват възможностите, безопасността и полезността на големите езикови модели като Claude. Взаимодействията в реалния свят предоставят безценни данни, които помагат на моделите да разберат кои отговори са най-полезни, точни и безопасни. Например, разработчиците, отстраняващи грешки в кода с Claude, предлагат критични прозрения за подобряване на бъдещите възможности за кодиране. Удълженото петгодишно съхранение на данни, специално за потребители, които са се включили, е предназначено да поддържа дългите цикли на разработка на AI, като гарантира последователност на данните за по-стабилни надстройки на модела и повишава ефективността на вътрешните класификатори, които откриват и смекчават вредни модели на използване, като злоупотреба или спам, за по-дълги периоди, което в крайна сметка прави Claude по-безопасен за всички."
  • question: "Какви стъпки трябва да предприемат съществуващите и новите потребители на Claude по отношение на тези актуализации на политиката и техните предпочитания за данни?" answer: "Съществуващите потребители на Claude ще получат известие в приложението, което ще ги подкани да прегледат актуализациите и да вземат решение дали да позволят техните чатове и сесии за кодиране да бъдат използвани за подобряване на модела. Потребителите имат срок до 8 октомври 2025 г., за да направят своя избор. Ако изберат да приемат по-рано, новите политики се прилагат незабавно за нови или възобновени чатове. След крайния срок, правенето на избор е задължително, за да продължат да използват Claude. Новите потребители ще получат този избор като част от първоначалния процес на регистрация. Независимо дали става въпрос за нов или съществуващ потребител, предпочитанията могат да бъдат променяни по всяко време чрез специалните настройки за поверителност в интерфейса на Claude, предлагайки непрекъснат контрол върху използването на личните данни и гарантирайки прозрачност."
  • question: "Какво се случва, ако потребител първоначално разреши данни за обучение на модела, но по-късно реши да промени решението си и да се откаже?" answer: "Anthropic подчертава, че потребителите запазват пълен контрол върху предпочитанията си за данни и могат да актуализират своя избор по всяко време чрез своите настройки за поверителност. Ако потребител първоначално се е включил за обучение на модела и по-късно реши да изключи тази настройка, всички нови чатове и сесии за кодиране с Claude вече няма да бъдат използвани за бъдещи цикли на обучение на модела. Важно е обаче да се отбележи, че данни от предишни завършени цикли на обучение на модела и вече пуснати модели все още могат да съдържат данни от предишни взаимодействия. Въпреки това, Anthropic се ангажира да спре използването на тези предварително съхранени чатове и сесии за кодиране във всякакви бъдещи итерации на обучение на модела, след като предпочитанието за отказ е регистрирано, като по този начин зачита актуализирания избор на потребителя за текущо използване на данни и поверителност."
  • question: "Как Anthropic гарантира поверителността на потребителите и защитата на данните с тези нови политики, особено при удължено съхранение?" answer: "За да защити поверителността на потребителите, Anthropic използва комбинация от модерни инструменти и автоматизирани процеси, предназначени да филтрират или маскират чувствителни данни, преди те да бъдат използвани за обучение на модела, дори при удължения период на съхранение за включилите се потребители. Компанията изрично заявява, че не продава потребителски данни на трети страни, подсилвайки ангажимента си към поверителността. Освен това, потребителите запазват контрол: изтриването на разговор гарантира, че той няма да бъде използван за бъдещо обучение на модела, а промяната на настройката за включване предотвратява използването на нови чатове. Тези мерки целят да балансират нуждата от подобряване на модела, базирано на данни, със строги защити на поверителността, гарантирайки доверието на потребителите и сигурността на данните през целия жизнен цикъл на разработка на AI. Този всеобхватен подход подчертава отдадеността на Anthropic към отговорни AI практики."

# Anthropic въвежда ключови актуализации на потребителските условия и политиката за поверителност на Claude

Anthropic, водеща компания за изследвания в областта на AI, обяви значителни актуализации на своите потребителски условия и политика за поверителност за потребителите на своите AI модели Claude. Тези промени, които влизат в сила от 28 август 2025 г., са предназначени да дадат на потребителите по-голям контрол върху техните данни, като същевременно позволят на Anthropic да разработва по-способни и по-безопасни AI системи. Сърцевината на тези актуализации е механизъм за включване за използване на данни при обучение на модела и удължен период за съхранение на данни за тези, които участват.

Този ход отразява нарастващата тенденция в индустрията към по-голяма прозрачност и потребителска автономия в разработката на изкуствен интелект. Като позволява на потребителите активно да избират дали техните взаимодействия допринасят за обучението на Claude, Anthropic цели да насърчи съвместна среда, която е от полза както за отделните потребители, така и за по-широката AI екосистема. Тази стратегическа еволюция на потребителските политики подчертава ангажимента на компанията към отговорно развитие на AI и доверието на потребителите.

## Подобряване на Claude с прозрения, базирани на потребителя, и защитни мерки

Основната промяна в актуализираната политика на Anthropic е въвеждането на потребителски избор относно използването на данни за подобряване на модела. Потребителите на плановете Free, Pro и Max на Claude, включително тези, които използват Claude Code от свързани акаунти, вече ще имат възможност да позволят техните данни да допринасят за обучението на бъдещи модели на Claude. Това участие е представено като решаваща стъпка към изграждането на по-стабилен и интелигентен AI.

Включването в това използване на данни предлага няколко преки ползи. Според Anthropic, потребителските взаимодействия предоставят ценни прозрения от реалния свят, които помагат за усъвършенстване на протоколите за безопасност на модела, правейки системите за откриване на вредно съдържание по-точни и по-малко склонни да отбелязват безобидни разговори. Освен безопасността, потребителските данни се очаква да подобрят значително основните възможности на Claude, като например уменията за кодиране, аналитичното мислене и способностите за решаване на сложни проблеми. Тази обратна връзка е от съществено значение за непрекъснатата еволюция на големите езикови модели, което води до по-усъвършенствани и полезни AI инструменти за всички.

Важно е да се отбележи специфичният обхват на тези актуализации. Въпреки че са приложими за потребителски акаунти, тези промени в политиката изрично **не** се отнасят за услуги, регулирани от търговските условия на Anthropic. Това включва Claude for Work, Claude for Government, Claude for Education и цялото използване на API, независимо дали директно или чрез платформи на трети страни като Amazon Bedrock или Vertex AI на Google Cloud. Това разграничение гарантира, че търговските клиенти и партньорите на корпоративно ниво запазват съществуващите си, често индивидуални, споразумения за данни и рамки за поверителност. За потребители, използващи услуги като [Amazon Bedrock AgentCore](/bg/amazon-bedrock-agentcore), остават в сила отделни споразумения.

## Навигиране във вашите избори: Включване и крайни срокове

Anthropic се ангажира да предостави на потребителите ясен контрол върху техните данни. Както новите, така и съществуващите потребители на Claude ще се сблъскат с различни процеси за вземане на решения относно споделянето на данни. Новите потребители, които се регистрират за Claude, ще открият опцията да изберат своите предпочитания за обучение на модела като неразделна част от процеса на включване, което им позволява да дефинират своите настройки за поверителност от самото начало.

За съществуващите потребители Anthropic стартира поетапно внедряване на известия в приложението. Тези изскачащи прозорци ще подтикват потребителите да прегледат актуализираните потребителски условия и политика за поверителност и да решат дали да позволят техните данни да бъдат използвани за подобряване на модела. Потребителите разполагат с гратисен период до **8 октомври 2025 г.**, за да направят своя избор. Ако съществуващ потребител реши да приеме новите политики и да се включи преди този срок, тези промени ще влязат в сила незабавно за всички нови или възобновени чатове и сесии за кодиране. Изключително важно е потребителите да направят избор до посочената дата, тъй като продължителното използване на Claude след 8 октомври 2025 г. ще изисква избор относно настройката за обучение на модела. Това гарантира, че потребителите активно участват във формирането на своя пейзаж на поверителност.

Изключително важно е, че потребителският контрол не е еднократно решение. Anthropic подчертава, че предпочитанията могат да бъдат коригирани по всяко време чрез специалния раздел за настройки за поверителност в интерфейса на Claude. Тази гъвкавост подчертава ангажимента на компанията към постоянна потребителска автономия по отношение на техните лични данни.

## Сравнение на политиките: Използване и съхранение на данни

За да се изясни въздействието на тези актуализации, следната таблица обобщава ключовите разлики между включване и отказ от използване на данни за обучение на модела съгласно новите потребителски условия:

| Характеристика                   | Включване за обучение на модел (нова политика)                                 | Отказ (съществуваща/политика по подразбиране)                                 |
| :------------------------------- | :--------------------------------------------------------------------- | :---------------------------------------------------------------- |
| **Използване на данни**            | Нови/възобновени чатове и сесии за кодиране, използвани за подобряване на модела и безопасност. | Нови/възобновени чатове и сесии за кодиране **не** се използват за обучение на модела. |
| **Период на съхранение на данни** | 5 години за включени данни.                                             | 30 дни за всички данни.                                             |
| **Прилага се за**            | Акаунти Claude Free, Pro, Max и сесии Claude Code.                 | Акаунти Claude Free, Pro, Max и сесии Claude Code.            |
| **Изключения**            | Търговски условия, API, Amazon Bedrock, услуги на Google Vertex AI.      | Същите изключения.                                                  |

## Стратегическо съхранение на данни за дългосрочно развитие на AI

Наред с възможността за включване за обучение на модела, Anthropic въвежда и удължен период за съхранение на данни за потребители, които изберат да участват. Ако потребител реши да позволи използването на данните си за подобряване на модела, периодът на съхранение за нови или възобновени чатове и сесии за кодиране ще бъде удължен до пет години. За потребители, които не се включат, съществуващият 30-дневен период за съхранение на данни ще продължи да се прилага. Това удължено съхранение обхваща и обратната връзка, изпратена относно отговорите на Claude на подкани.

Обоснованието зад петгодишния период на съхранение е дълбоко вкоренено в реалностите на напредналата разработка на AI. Големите езикови модели преминават през цикли на разработка, които често продължават от 18 до 24 месеца преди пускане. Поддържането на консистентност на данните за по-дълги периоди е от жизненоважно значение за създаването на по-стабилни и предвидими модели. Консистентните данни позволяват моделите да бъдат обучавани и усъвършенствани по сходни начини, което води до по-плавни преходи и надстройки за потребителите.

Освен това, удълженото съхранение значително помага за подобряване на вътрешните класификатори на Anthropic – сложните системи, използвани за идентифициране и противодействие на злоупотреби, малтретиране, спам и други вредни модели. Тези механизми за безопасност стават по-ефективни, като се учат от данни, събрани за по-дълги периоди, подобрявайки способността на Claude да остане безопасен и полезен инструмент за всички. Anthropic също така е ангажиран с по-широки дискусии за безопасността на AI, както е подчертано от инициативи като [The Anthropic Institute](/bg/the-anthropic-institute).

За да защити поверителността на потребителите, Anthropic използва комбинация от модерни инструменти и автоматизирани процеси за филтриране или маскиране на чувствителни данни, преди те да бъдат използвани за каквото и да е обучение на модела или анализ. Компанията категорично заявява, че не продава потребителски данни на трети страни, подсилвайки ангажимента си към поверителността, дори при удълженото съхранение за включените данни. Потребителите запазват контрол върху своите данни дори след включване; изтриването на конкретен разговор гарантира, че той няма да бъде използван за бъдещо обучение на модела. Този всеобхватен подход подчертава отдадеността на Anthropic към отговорни AI практики.

## Овластяване на потребителите и управление на данните

Актуализираните потребителски условия и политика за поверителност на Anthropic подчертават ориентиран към потребителя подход към разработката на AI. Като предоставя избора за принос към подобряването на модела директно в ръцете на потребителя, компанията цели да насърчи по-прозрачни и съвместни отношения. Възможността за промяна на тези предпочитания по всяко време гарантира, че потребителите запазват непрекъснат контрол върху пътя на техните данни.

В случай че потребител първоначално се е включил за обучение на модела, но по-късно реши да промени решението си и да се откаже, Anthropic има ясна политика. Въпреки че данните, използвани в предишни завършени цикли на обучение на модела и вече пуснати модели, може все още да съществуват в тези версии, всички *нови* чатове и сесии за кодиране след решението за отказ няма да бъдат използвани за бъдещо обучение. Компанията се ангажира да прекрати използването на предварително съхранени чатове и сесии за кодиране във всякакви *бъдещи* итерации на обучение на модела, след като предпочитанието бъде актуализирано. Това предлага стабилен механизъм за потребителите да управляват динамично своите настройки за поверителност.

Тези актуализации представляват премерен ход към балансиране на огромния потенциал на иновациите в AI, базирани на данни, с върховното значение на поверителността на потребителите и прозрачността. Тъй като AI моделите все повече се интегрират в ежедневието, политики като тези са от решаващо значение за изграждането на доверие и осигуряването на етично развитие.

Често задавани въпроси

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Бъдете информирани

Получавайте последните AI новини по имейл.

Сподели