title: "Anthropic Claude: Ажурирања на потрошувачките услови и политиката за приватност" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "mk" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "АИ Модели" keywords:
- Anthropic
- Claude AI
- Потрошувачки Услови
- Политика за приватност
- Употреба на податоци
- Тренинг на модел
- АИ Безбедност
- Задржување на податоци
- Кориснички преференци
- АИ Развој
- Политика за LLM
- Транспарентност meta_description: "Anthropic најавува клучни ажурирања на Потрошувачките услови и Политиката за приватност на Claude, нудејќи им на корисниците контрола врз употребата на податоците за подобрување на моделот и продолжувајќи го задржувањето на податоците за безбедност и развој." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Екран за известување за ажурирање на потрошувачките услови и политиката за приватност на Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Кои се основните промени воведени во ажурираните потрошувачки услови и политика за приватност на Anthropic за корисниците на Claude?" answer: "Anthropic воведува значајни ажурирања на своите потрошувачки услови и политика за приватност, првенствено насочени кон овозможување на корисниците да изберат дали нивните податоци ќе се користат за подобрување на АИ моделите на Claude. Кога оваа поставка е овозможена, податоците од Free, Pro и Max сметките, вклучувајќи ги и Claude Code сесиите, ќе придонесат за тренирање на нови модели. Ова има за цел да ја подобри безбедноста, точноста и можностите на моделот во области како кодирање, анализа и расудување. Дополнително, за корисниците кои ќе се одлучат да учествуваат, периодот на задржување на податоците ќе биде продолжен на пет години. Спротивно на тоа, ако корисниците одлучат да не се вклучат во тренирање на моделот, постоечката политика за задржување на податоци од 30 дена ќе остане во сила. Овие промени не влијаат на комерцијалните корисници според специфични корпоративни договори или употреба на API, обезбедувајќи посебни политики за различни сегменти на корисници."
- question: "Кои Claude услуги и типови на корисници се засегнати од овие нови ажурирања на политиката, а кои не се?" answer: "Ажурираните потрошувачки услови и политика за приватност конкретно се однесуваат на индивидуални корисници на плановите Claude Free, Pro и Max на Anthropic. Ова вклучува случаи каде корисниците комуницираат со Claude Code преку сметки поврзани со овие потрошувачки планови. Сепак, клучно е да се разбере дека овие ажурирања не се однесуваат на услугите кои работат според комерцијалните услови на Anthropic. Тоа значи дека Claude for Work (вклучувајќи ги Team и Enterprise плановите), Claude for Government, Claude for Education, и сите употреби на API — без разлика дали се директни или преку платформи од трети страни како Amazon Bedrock или Google Cloud’s Vertex AI — се експлицитно исклучени од овие нови промени на политиката насочени кон потрошувачите. Комерцијалните корисници и API интеграторите ќе продолжат да работат според нивните постоечки договори, кои имаат посебни одредби за приватност и ракување со податоци."
- question: "Зошто Anthropic ги прави овие промени, особено во врска со употребата на податоци за тренирање на модели и продолжено задржување?" answer: "Anthropic наведува дека овие промени се водени од основната потреба континуирано да се подобруваат можностите, безбедноста и корисноста на големите јазични модели како Claude. Реалните интеракции обезбедуваат непроценливи податочни сигнали кои им помагаат на моделите да научат кои одговори се најкорисни, точни и безбедни. На пример, програмерите кои дебагираат код со Claude нудат клучни сознанија за подобрување на идните можности за кодирање. Продолженото петгодишно задржување на податоци, конкретно за корисниците кои ќе се одлучат да учествуваат, е дизајнирано да ги поддржи долгите развојни циклуси на АИ, обезбедувајќи конзистентност на податоците за постабилни надградби на моделите и подобрување на ефикасноста на внатрешните класификатори кои откриваат и ублажуваат штетни обрасци на употреба како злоупотреба или спам за подолги периоди, на крајот правејќи го Claude побезбеден за сите."
- question: "Кои чекори треба да преземат постоечките и новите корисници на Claude во врска со овие ажурирања на политиката и нивните преференци за податоци?" answer: "Постоечките корисници на Claude ќе добијат известување во апликацијата кое ги поттикнува да ги прегледаат ажурирањата и да донесат одлука дали да дозволат нивните разговори и сесии за кодирање да се користат за подобрување на моделот. Корисниците имаат рок до 8 октомври 2025 година да направат избор. Доколку одлучат да прифатат порано, новите политики веднаш се применуваат на новите или обновените разговори. По истекот на рокот, изборот е задолжителен за да продолжите да го користите Claude. На новите корисници ќе им биде претставен овој избор како дел од почетниот процес на регистрација. Без разлика дали некој е нов или постоечки корисник, преференциите можат да се изменат во секое време преку наменските поставки за приватност во интерфејсот на Claude, нудејќи континуирана контрола врз употребата на личните податоци и обезбедувајќи транспарентност."
- question: "Што се случува ако корисникот првично дозволи податоци за тренирање на моделот, но подоцна одлучи да се предомисли и да се откаже?" answer: "Anthropic нагласува дека корисниците ја задржуваат целосната контрола врз своите преференци за податоци и можат да го ажурираат својот избор во секое време преку нивните поставки за приватност. Ако корисникот првично се вклучи за тренирање на моделот, а подоцна одлучи да ја исклучи оваа поставка, новите разговори и сесии за кодирање со Claude повеќе нема да се користат за идни тренирања на моделот. Сепак, важно е да се напомене дека податоците од претходно завршени тренирања на моделот и моделите кои веќе се објавени може сè уште да содржат податоци од нивните минати интеракции. Сепак, Anthropic се обврзува да престане со користење на тие претходно зачувани разговори и сесии за кодирање во сите идни итерации на тренирање на моделот откако ќе се регистрира преференцата за откажување, со што се почитува ажурираниот избор на корисникот за тековна употреба на податоците и приватност."
- question: "Како Anthropic ја обезбедува приватноста и заштитата на податоците на корисниците со овие нови политики, особено со продолженото задржување?" answer: "За да ја заштити приватноста на корисниците, Anthropic користи комбинација од напредни алатки и автоматизирани процеси дизајнирани да ги филтрираат или прикријат чувствителните податоци пред тие да бидат користени за тренирање на моделот, дури и со продолжениот период на задржување за корисниците кои се одлучиле да учествуваат. Компанијата експлицитно наведува дека не продава кориснички податоци на трети страни, со што ја зајакнува својата посветеност на приватноста. Покрај тоа, корисниците ја задржуваат контролата: бришењето на разговорот гарантира дека нема да се користи за идни тренирања на моделот, а менувањето на поставката за вклучување спречува нови разговори да се користат. Овие мерки имаат за цел да ја балансираат потребата за подобрување на моделот базирано на податоци со строги заштити на приватноста, обезбедувајќи доверба на корисниците и безбедност на податоците во текот на целиот животен циклус на развој на АИ. Овој сеопфатен пристап ја нагласува посветеноста на Anthropic на одговорни АИ практики."
Anthropic воведува клучни ажурирања на потрошувачките услови и политиката за приватност на Claude
Anthropic, водечка компанија за АИ истражување, најави значајни ажурирања на своите потрошувачки услови и политика за приватност за корисниците на нејзините АИ модели Claude. Овие промени, кои стапуваат на сила на 28 август 2025 година, се дизајнирани да им овозможат на корисниците поголема контрола врз нивните податоци, истовремено овозможувајќи му на Anthropic да развива поспособни и побезбедни АИ системи. Суштината на овие ажурирања се центрира околу механизам за вклучување за употреба на податоци во тренирање на моделот и продолжен период на задржување на податоците за оние кои учествуваат.
Овој потег го одразува растечкиот тренд во индустријата кон поголема транспарентност и корисничка агенција во развојот на вештачката интелигенција. Дозволувајќи им на корисниците активно да изберат дали нивните интеракции придонесуваат за учењето на Claude, Anthropic има за цел да поттикне соработка што им користи и на индивидуалните корисници и на поширокиот АИ екосистем. Оваа стратешка еволуција на политиките насочени кон потрошувачите ја нагласува посветеноста на компанијата на одговорен развој на АИ и довербата на корисниците.
Подобрување на Claude со увиди и заштитни мерки водени од корисниците
Примарната промена во ажурираната политика на Anthropic е воведувањето на избор на корисникот во врска со користењето на податоци за подобрување на моделот. Корисниците на Claude Free, Pro и Max плановите, вклучувајќи ги оние кои го користат Claude Code од поврзани сметки, сега ќе имаат опција да дозволат нивните податоци да придонесат за тренирање на идните Claude модели. Ова учество е поставено како клучен чекор кон изградба на поробусни и поинтелигентни АИ.
Вклучувањето во оваа употреба на податоци нуди неколку директни придобивки. Според Anthropic, интеракциите на корисниците обезбедуваат вредни увиди од реалниот свет кои помагаат да се прецизираат безбедносните протоколи на моделот, правејќи ги системите за откривање штетна содржина попрецизни и помалку склони кон означување безопасни разговори. Освен безбедноста, се очекува корисничките податоци значително да ги подобрат основните способности на Claude, како што се вештините за кодирање, аналитичко расудување и решавање на сложени проблеми. Оваа повратна врска е суштинска за континуираната еволуција на големите јазични модели, што води до пософистицирани и поупотребливи АИ алатки за сите.
Важно е да се забележи специфичниот опсег на овие ажурирања. Иако се применливи за сметки на ниво на потрошувачи, овие промени на политиката експлицитно не се однесуваат на услуги регулирани со комерцијалните услови на Anthropic. Ова ги вклучува Claude for Work, Claude for Government, Claude for Education, и целата употреба на API, без разлика дали е директно или преку платформи од трети страни како Amazon Bedrock или Google Cloud’s Vertex AI. Оваа разлика осигурува дека комерцијалните клиенти и партнерите на корпоративно ниво ги задржуваат своите постоечки, често прилагодени, договори за податоци и рамки за приватност. За корисниците кои користат услуги како Amazon Bedrock AgentCore, остануваат на сила посебни договори.
Навигација по вашите избори: Вклучување и рокови
Anthropic е посветен на обезбедување јасна контрола на корисниците врз нивните податоци. И новите и постоечките корисници на Claude ќе наидат на различни процеси за донесување одлуки за споделување на податоци. Новите корисници кои се регистрираат за Claude ќе ја најдат опцијата да ја изберат својата преференца за тренирање на моделот како интегрален дел од процесот на регистрација, овозможувајќи им да ги дефинираат своите поставки за приватност од самиот почеток.
За постоечките корисници, Anthropic започна фазна имплементација на известувања во апликацијата. Овие скокачки прозорци ќе ги поттикнат корисниците да ги прегледаат ажурираните потрошувачки услови и политика за приватност и да одлучат дали да дозволат нивните податоци да се користат за подобрување на моделот. Корисниците имаат грејс период до 8 октомври 2025 година за да направат избор. Ако постоечки корисник одлучи да ги прифати новите политики и да се вклучи пред овој рок, овие промени веднаш ќе стапат на сила за сите нови или обновени разговори и сесии за кодирање. Клучно е корисниците да направат избор до наведениот датум, бидејќи континуираната употреба на Claude по 8 октомври 2025 година ќе бара избор на поставката за тренирање на моделот. Ова осигурува дека корисниците активно учествуваат во обликувањето на нивниот приватен пејзаж.
Клучно, контролата на корисникот не е еднократна одлука. Anthropic нагласува дека преференците можат да се прилагодат во секое време преку наменскиот дел за поставки за приватност во интерфејсот на Claude. Оваа флексибилност ја нагласува посветеноста на компанијата на постојана автономија на корисниците во врска со нивните лични податоци.
Споредба на политики: Употреба и задржување на податоци
За да се разјасни влијанието на овие ажурирања, следната табела ги сумира клучните разлики помеѓу вклучувањето и исклучувањето од употреба на податоци за тренирање на моделот според новите потрошувачки услови:
| Карактеристика | Вклучување за тренирање на моделот (Нова политика) | Исклучување (Постоечка/стандардна политика) |
|---|---|---|
| Употреба на податоци | Нови/обновени разговори и сесии за кодирање се користат за подобрување на моделот и безбедност. | Нови/обновени разговори и сесии за кодирање не се користат за тренирање на моделот. |
| Период на задржување на податоци | 5 години за вклучени податоци. | 30 дена за сите податоци. |
| Се однесува на | Claude Free, Pro, Max сметки и Claude Code сесии. | Claude Free, Pro, Max сметки и Claude Code сесии. |
| Исклучоци | Комерцијални услови, API, Amazon Bedrock, Google Vertex AI услуги. | Исти исклучоци. |
Стратешко задржување на податоци за долгорочен АИ развој
Покрај вклучувањето за тренирање на моделот, Anthropic воведува и продолжен период на задржување на податоци за корисниците кои ќе одлучат да учествуваат. Ако корисникот одлучи да дозволи неговите податоци за подобрување на моделот, периодот на задржување за нови или обновени разговори и сесии за кодирање ќе биде продолжен на пет години. За корисниците кои нема да се вклучат, постоечкиот период на задржување на податоци од 30 дена ќе продолжи да важи. Ова продолжено задржување ги опфаќа и повратните информации поднесени за одговорите на Claude на барањата.
Образложението зад петгодишниот период на задржување е длабоко вкоренето во реалностите на напредниот АИ развој. Големите јазични модели минуваат низ развојни циклуси кои често траат од 18 до 24 месеци пред објавувањето. Одржувањето на конзистентност на податоците во подолги периоди е од витално значење за создавање постабилни и предвидливи модели. Конзистентните податоци овозможуваат моделите да се тренираат и рафинираат на слични начини, што води до помазни транзиции и надградби за корисниците.
Понатаму, продолженото задржување значително помага во подобрувањето на внатрешните класификатори на Anthropic — софистицираните системи кои се користат за идентификување и спречување на злоупотреба, спам и други штетни обрасци. Овие безбедносни механизми стануваат поефективни со учење од податоци собрани во подолги периоди, подобрувајќи ја способноста на Claude да остане безбедна и корисна алатка за сите. Anthropic е исто така посветен на пошироки дискусии за безбедноста на АИ, како што е нагласено од иницијативи како The Anthropic Institute.
За да ја заштити приватноста на корисниците, Anthropic користи комбинација од напредни алатки и автоматизирани процеси за филтрирање или прикривање на чувствителните податоци пред тие да бидат користени за какво било тренирање или анализа на моделот. Компанијата категорично изјавува дека не продава кориснички податоци на трети страни, со што ја зајакнува својата посветеност на приватноста дури и со продолженото задржување за вклучените податоци. Корисниците ја задржуваат контролата врз своите податоци дури и откако ќе се вклучат; бришењето на одреден разговор гарантира дека нема да се користи за идни тренирања на моделот.
Овластување на корисниците и управување со податоци
Ажурираните потрошувачки услови и политика за приватност на Anthropic нагласуваат кориснички ориентиран пристап кон развојот на АИ. Со ставањето на изборот за придонес кон подобрување на моделот директно во рацете на корисникот, компанијата има за цел да поттикне потранспарентен и колаборативен однос. Можноста за менување на овие преференци во секое време осигурува дека корисниците ја задржуваат континуираната контрола врз патувањето на нивните податоци.
Доколку корисникот првично се вклучи за тренирање на моделот, но подоцна одлучи да се предомисли и да се откаже, Anthropic има јасна политика. Иако податоците користени во претходно завршени тренирања на моделот и веќе објавените модели може сè уште да постојат во тие верзии, сите нови разговори и сесии за кодирање по одлуката за откажување нема да се користат за идни тренирања. Компанијата се обврзува да престане со користење на претходно зачуваните разговори и сесии за кодирање во сите идни итерации на тренирање на моделот откако ќе се ажурира преференцата. Ова нуди робустен механизам за корисниците динамично да управуваат со своите поставки за приватност.
Овие ажурирања претставуваат измерен чекор кон балансирање на огромниот потенцијал на иновациите на АИ водени од податоци со најважната важност на приватноста на корисниците и транспарентноста. Како што АИ моделите стануваат сè поинтегрирани во секојдневниот живот, политиките како овие се клучни за градење доверба и обезбедување етички развој.
Оригинален извор
https://www.anthropic.com/news/updates-to-our-consumer-termsЧесто поставувани прашања
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Бидете информирани
Добивајте ги најновите AI вести на е-пошта.
