Code Velocity
АИ Модели

Anthropic Claude: Ажурирања на потрошувачките услови и политиката за приватност

·5 мин читање·Anthropic·Оригинален извор
Сподели
Екран за известување за ажурирање на потрошувачките услови и политиката за приватност на Anthropic Claude

title: "Anthropic Claude: Ажурирања на потрошувачките услови и политиката за приватност" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "mk" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "АИ Модели" keywords:

  • Anthropic
  • Claude AI
  • Потрошувачки Услови
  • Политика за приватност
  • Употреба на податоци
  • Тренинг на модел
  • АИ Безбедност
  • Задржување на податоци
  • Кориснички преференци
  • АИ Развој
  • Политика за LLM
  • Транспарентност meta_description: "Anthropic најавува клучни ажурирања на Потрошувачките услови и Политиката за приватност на Claude, нудејќи им на корисниците контрола врз употребата на податоците за подобрување на моделот и продолжувајќи го задржувањето на податоците за безбедност и развој." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Екран за известување за ажурирање на потрошувачките услови и политиката за приватност на Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Кои се основните промени воведени во ажурираните потрошувачки услови и политика за приватност на Anthropic за корисниците на Claude?" answer: "Anthropic воведува значајни ажурирања на своите потрошувачки услови и политика за приватност, првенствено насочени кон овозможување на корисниците да изберат дали нивните податоци ќе се користат за подобрување на АИ моделите на Claude. Кога оваа поставка е овозможена, податоците од Free, Pro и Max сметките, вклучувајќи ги и Claude Code сесиите, ќе придонесат за тренирање на нови модели. Ова има за цел да ја подобри безбедноста, точноста и можностите на моделот во области како кодирање, анализа и расудување. Дополнително, за корисниците кои ќе се одлучат да учествуваат, периодот на задржување на податоците ќе биде продолжен на пет години. Спротивно на тоа, ако корисниците одлучат да не се вклучат во тренирање на моделот, постоечката политика за задржување на податоци од 30 дена ќе остане во сила. Овие промени не влијаат на комерцијалните корисници според специфични корпоративни договори или употреба на API, обезбедувајќи посебни политики за различни сегменти на корисници."
  • question: "Кои Claude услуги и типови на корисници се засегнати од овие нови ажурирања на политиката, а кои не се?" answer: "Ажурираните потрошувачки услови и политика за приватност конкретно се однесуваат на индивидуални корисници на плановите Claude Free, Pro и Max на Anthropic. Ова вклучува случаи каде корисниците комуницираат со Claude Code преку сметки поврзани со овие потрошувачки планови. Сепак, клучно е да се разбере дека овие ажурирања не се однесуваат на услугите кои работат според комерцијалните услови на Anthropic. Тоа значи дека Claude for Work (вклучувајќи ги Team и Enterprise плановите), Claude for Government, Claude for Education, и сите употреби на API — без разлика дали се директни или преку платформи од трети страни како Amazon Bedrock или Google Cloud’s Vertex AI — се експлицитно исклучени од овие нови промени на политиката насочени кон потрошувачите. Комерцијалните корисници и API интеграторите ќе продолжат да работат според нивните постоечки договори, кои имаат посебни одредби за приватност и ракување со податоци."
  • question: "Зошто Anthropic ги прави овие промени, особено во врска со употребата на податоци за тренирање на модели и продолжено задржување?" answer: "Anthropic наведува дека овие промени се водени од основната потреба континуирано да се подобруваат можностите, безбедноста и корисноста на големите јазични модели како Claude. Реалните интеракции обезбедуваат непроценливи податочни сигнали кои им помагаат на моделите да научат кои одговори се најкорисни, точни и безбедни. На пример, програмерите кои дебагираат код со Claude нудат клучни сознанија за подобрување на идните можности за кодирање. Продолженото петгодишно задржување на податоци, конкретно за корисниците кои ќе се одлучат да учествуваат, е дизајнирано да ги поддржи долгите развојни циклуси на АИ, обезбедувајќи конзистентност на податоците за постабилни надградби на моделите и подобрување на ефикасноста на внатрешните класификатори кои откриваат и ублажуваат штетни обрасци на употреба како злоупотреба или спам за подолги периоди, на крајот правејќи го Claude побезбеден за сите."
  • question: "Кои чекори треба да преземат постоечките и новите корисници на Claude во врска со овие ажурирања на политиката и нивните преференци за податоци?" answer: "Постоечките корисници на Claude ќе добијат известување во апликацијата кое ги поттикнува да ги прегледаат ажурирањата и да донесат одлука дали да дозволат нивните разговори и сесии за кодирање да се користат за подобрување на моделот. Корисниците имаат рок до 8 октомври 2025 година да направат избор. Доколку одлучат да прифатат порано, новите политики веднаш се применуваат на новите или обновените разговори. По истекот на рокот, изборот е задолжителен за да продолжите да го користите Claude. На новите корисници ќе им биде претставен овој избор како дел од почетниот процес на регистрација. Без разлика дали некој е нов или постоечки корисник, преференциите можат да се изменат во секое време преку наменските поставки за приватност во интерфејсот на Claude, нудејќи континуирана контрола врз употребата на личните податоци и обезбедувајќи транспарентност."
  • question: "Што се случува ако корисникот првично дозволи податоци за тренирање на моделот, но подоцна одлучи да се предомисли и да се откаже?" answer: "Anthropic нагласува дека корисниците ја задржуваат целосната контрола врз своите преференци за податоци и можат да го ажурираат својот избор во секое време преку нивните поставки за приватност. Ако корисникот првично се вклучи за тренирање на моделот, а подоцна одлучи да ја исклучи оваа поставка, новите разговори и сесии за кодирање со Claude повеќе нема да се користат за идни тренирања на моделот. Сепак, важно е да се напомене дека податоците од претходно завршени тренирања на моделот и моделите кои веќе се објавени може сè уште да содржат податоци од нивните минати интеракции. Сепак, Anthropic се обврзува да престане со користење на тие претходно зачувани разговори и сесии за кодирање во сите идни итерации на тренирање на моделот откако ќе се регистрира преференцата за откажување, со што се почитува ажурираниот избор на корисникот за тековна употреба на податоците и приватност."
  • question: "Како Anthropic ја обезбедува приватноста и заштитата на податоците на корисниците со овие нови политики, особено со продолженото задржување?" answer: "За да ја заштити приватноста на корисниците, Anthropic користи комбинација од напредни алатки и автоматизирани процеси дизајнирани да ги филтрираат или прикријат чувствителните податоци пред тие да бидат користени за тренирање на моделот, дури и со продолжениот период на задржување за корисниците кои се одлучиле да учествуваат. Компанијата експлицитно наведува дека не продава кориснички податоци на трети страни, со што ја зајакнува својата посветеност на приватноста. Покрај тоа, корисниците ја задржуваат контролата: бришењето на разговорот гарантира дека нема да се користи за идни тренирања на моделот, а менувањето на поставката за вклучување спречува нови разговори да се користат. Овие мерки имаат за цел да ја балансираат потребата за подобрување на моделот базирано на податоци со строги заштити на приватноста, обезбедувајќи доверба на корисниците и безбедност на податоците во текот на целиот животен циклус на развој на АИ. Овој сеопфатен пристап ја нагласува посветеноста на Anthropic на одговорни АИ практики."

Anthropic воведува клучни ажурирања на потрошувачките услови и политиката за приватност на Claude

Anthropic, водечка компанија за АИ истражување, најави значајни ажурирања на своите потрошувачки услови и политика за приватност за корисниците на нејзините АИ модели Claude. Овие промени, кои стапуваат на сила на 28 август 2025 година, се дизајнирани да им овозможат на корисниците поголема контрола врз нивните податоци, истовремено овозможувајќи му на Anthropic да развива поспособни и побезбедни АИ системи. Суштината на овие ажурирања се центрира околу механизам за вклучување за употреба на податоци во тренирање на моделот и продолжен период на задржување на податоците за оние кои учествуваат.

Овој потег го одразува растечкиот тренд во индустријата кон поголема транспарентност и корисничка агенција во развојот на вештачката интелигенција. Дозволувајќи им на корисниците активно да изберат дали нивните интеракции придонесуваат за учењето на Claude, Anthropic има за цел да поттикне соработка што им користи и на индивидуалните корисници и на поширокиот АИ екосистем. Оваа стратешка еволуција на политиките насочени кон потрошувачите ја нагласува посветеноста на компанијата на одговорен развој на АИ и довербата на корисниците.

Подобрување на Claude со увиди и заштитни мерки водени од корисниците

Примарната промена во ажурираната политика на Anthropic е воведувањето на избор на корисникот во врска со користењето на податоци за подобрување на моделот. Корисниците на Claude Free, Pro и Max плановите, вклучувајќи ги оние кои го користат Claude Code од поврзани сметки, сега ќе имаат опција да дозволат нивните податоци да придонесат за тренирање на идните Claude модели. Ова учество е поставено како клучен чекор кон изградба на поробусни и поинтелигентни АИ.

Вклучувањето во оваа употреба на податоци нуди неколку директни придобивки. Според Anthropic, интеракциите на корисниците обезбедуваат вредни увиди од реалниот свет кои помагаат да се прецизираат безбедносните протоколи на моделот, правејќи ги системите за откривање штетна содржина попрецизни и помалку склони кон означување безопасни разговори. Освен безбедноста, се очекува корисничките податоци значително да ги подобрат основните способности на Claude, како што се вештините за кодирање, аналитичко расудување и решавање на сложени проблеми. Оваа повратна врска е суштинска за континуираната еволуција на големите јазични модели, што води до пософистицирани и поупотребливи АИ алатки за сите.

Важно е да се забележи специфичниот опсег на овие ажурирања. Иако се применливи за сметки на ниво на потрошувачи, овие промени на политиката експлицитно не се однесуваат на услуги регулирани со комерцијалните услови на Anthropic. Ова ги вклучува Claude for Work, Claude for Government, Claude for Education, и целата употреба на API, без разлика дали е директно или преку платформи од трети страни како Amazon Bedrock или Google Cloud’s Vertex AI. Оваа разлика осигурува дека комерцијалните клиенти и партнерите на корпоративно ниво ги задржуваат своите постоечки, често прилагодени, договори за податоци и рамки за приватност. За корисниците кои користат услуги како Amazon Bedrock AgentCore, остануваат на сила посебни договори.

Навигација по вашите избори: Вклучување и рокови

Anthropic е посветен на обезбедување јасна контрола на корисниците врз нивните податоци. И новите и постоечките корисници на Claude ќе наидат на различни процеси за донесување одлуки за споделување на податоци. Новите корисници кои се регистрираат за Claude ќе ја најдат опцијата да ја изберат својата преференца за тренирање на моделот како интегрален дел од процесот на регистрација, овозможувајќи им да ги дефинираат своите поставки за приватност од самиот почеток.

За постоечките корисници, Anthropic започна фазна имплементација на известувања во апликацијата. Овие скокачки прозорци ќе ги поттикнат корисниците да ги прегледаат ажурираните потрошувачки услови и политика за приватност и да одлучат дали да дозволат нивните податоци да се користат за подобрување на моделот. Корисниците имаат грејс период до 8 октомври 2025 година за да направат избор. Ако постоечки корисник одлучи да ги прифати новите политики и да се вклучи пред овој рок, овие промени веднаш ќе стапат на сила за сите нови или обновени разговори и сесии за кодирање. Клучно е корисниците да направат избор до наведениот датум, бидејќи континуираната употреба на Claude по 8 октомври 2025 година ќе бара избор на поставката за тренирање на моделот. Ова осигурува дека корисниците активно учествуваат во обликувањето на нивниот приватен пејзаж.

Клучно, контролата на корисникот не е еднократна одлука. Anthropic нагласува дека преференците можат да се прилагодат во секое време преку наменскиот дел за поставки за приватност во интерфејсот на Claude. Оваа флексибилност ја нагласува посветеноста на компанијата на постојана автономија на корисниците во врска со нивните лични податоци.

Споредба на политики: Употреба и задржување на податоци

За да се разјасни влијанието на овие ажурирања, следната табела ги сумира клучните разлики помеѓу вклучувањето и исклучувањето од употреба на податоци за тренирање на моделот според новите потрошувачки услови:

КарактеристикаВклучување за тренирање на моделот (Нова политика)Исклучување (Постоечка/стандардна политика)
Употреба на податоциНови/обновени разговори и сесии за кодирање се користат за подобрување на моделот и безбедност.Нови/обновени разговори и сесии за кодирање не се користат за тренирање на моделот.
Период на задржување на податоци5 години за вклучени податоци.30 дена за сите податоци.
Се однесува наClaude Free, Pro, Max сметки и Claude Code сесии.Claude Free, Pro, Max сметки и Claude Code сесии.
ИсклучоциКомерцијални услови, API, Amazon Bedrock, Google Vertex AI услуги.Исти исклучоци.

Стратешко задржување на податоци за долгорочен АИ развој

Покрај вклучувањето за тренирање на моделот, Anthropic воведува и продолжен период на задржување на податоци за корисниците кои ќе одлучат да учествуваат. Ако корисникот одлучи да дозволи неговите податоци за подобрување на моделот, периодот на задржување за нови или обновени разговори и сесии за кодирање ќе биде продолжен на пет години. За корисниците кои нема да се вклучат, постоечкиот период на задржување на податоци од 30 дена ќе продолжи да важи. Ова продолжено задржување ги опфаќа и повратните информации поднесени за одговорите на Claude на барањата.

Образложението зад петгодишниот период на задржување е длабоко вкоренето во реалностите на напредниот АИ развој. Големите јазични модели минуваат низ развојни циклуси кои често траат од 18 до 24 месеци пред објавувањето. Одржувањето на конзистентност на податоците во подолги периоди е од витално значење за создавање постабилни и предвидливи модели. Конзистентните податоци овозможуваат моделите да се тренираат и рафинираат на слични начини, што води до помазни транзиции и надградби за корисниците.

Понатаму, продолженото задржување значително помага во подобрувањето на внатрешните класификатори на Anthropic — софистицираните системи кои се користат за идентификување и спречување на злоупотреба, спам и други штетни обрасци. Овие безбедносни механизми стануваат поефективни со учење од податоци собрани во подолги периоди, подобрувајќи ја способноста на Claude да остане безбедна и корисна алатка за сите. Anthropic е исто така посветен на пошироки дискусии за безбедноста на АИ, како што е нагласено од иницијативи како The Anthropic Institute.

За да ја заштити приватноста на корисниците, Anthropic користи комбинација од напредни алатки и автоматизирани процеси за филтрирање или прикривање на чувствителните податоци пред тие да бидат користени за какво било тренирање или анализа на моделот. Компанијата категорично изјавува дека не продава кориснички податоци на трети страни, со што ја зајакнува својата посветеност на приватноста дури и со продолженото задржување за вклучените податоци. Корисниците ја задржуваат контролата врз своите податоци дури и откако ќе се вклучат; бришењето на одреден разговор гарантира дека нема да се користи за идни тренирања на моделот.

Овластување на корисниците и управување со податоци

Ажурираните потрошувачки услови и политика за приватност на Anthropic нагласуваат кориснички ориентиран пристап кон развојот на АИ. Со ставањето на изборот за придонес кон подобрување на моделот директно во рацете на корисникот, компанијата има за цел да поттикне потранспарентен и колаборативен однос. Можноста за менување на овие преференци во секое време осигурува дека корисниците ја задржуваат континуираната контрола врз патувањето на нивните податоци.

Доколку корисникот првично се вклучи за тренирање на моделот, но подоцна одлучи да се предомисли и да се откаже, Anthropic има јасна политика. Иако податоците користени во претходно завршени тренирања на моделот и веќе објавените модели може сè уште да постојат во тие верзии, сите нови разговори и сесии за кодирање по одлуката за откажување нема да се користат за идни тренирања. Компанијата се обврзува да престане со користење на претходно зачуваните разговори и сесии за кодирање во сите идни итерации на тренирање на моделот откако ќе се ажурира преференцата. Ова нуди робустен механизам за корисниците динамично да управуваат со своите поставки за приватност.

Овие ажурирања претставуваат измерен чекор кон балансирање на огромниот потенцијал на иновациите на АИ водени од податоци со најважната важност на приватноста на корисниците и транспарентноста. Како што АИ моделите стануваат сè поинтегрирани во секојдневниот живот, политиките како овие се клучни за градење доверба и обезбедување етички развој.

Често поставувани прашања

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Бидете информирани

Добивајте ги најновите AI вести на е-пошта.

Сподели