title: "Anthropic Claude: Ažuriranja Uslova korišćenja za potrošače i Politike privatnosti" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "sr" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI Modeli" keywords:
- Anthropic
- Claude AI
- Uslovi korišćenja za potrošače
- Politika privatnosti
- Korišćenje podataka
- Obuka modela
- AI Bezbednost
- Zadržavanje podataka
- Korisničke preference
- Razvoj AI
- Politika LLM-a
- Transparentnost meta_description: "Anthropic najavljuje ključna ažuriranja Uslova korišćenja za potrošače i Politike privatnosti za Claude, nudeći korisnicima kontrolu nad korišćenjem podataka za poboljšanje modela i produžavajući zadržavanje podataka radi bezbednosti i razvoja." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Ekran obaveštenja o ažuriranju Uslova korišćenja za potrošače i Politike privatnosti za Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Koje su ključne promene uvedene u ažurirane Uslove korišćenja za potrošače i Politiku privatnosti kompanije Anthropic za korisnike Claudea?" answer: "Anthropic uvodi značajna ažuriranja svojih Uslova korišćenja za potrošače i Politike privatnosti, prvenstveno usmerenih na osnaživanje korisnika da izaberu da li će njihovi podaci biti korišćeni za poboljšanje Claude AI modela. Kada je ova postavka omogućena, podaci sa Free, Pro i Max naloga, uključujući Claude Code sesije, doprineće obuci novih modela. Cilj je da se poboljša bezbednost, tačnost i sposobnosti modela u oblastima kao što su kodiranje, analiza i rasuđivanje. Dodatno, za korisnike koji pristanu, period zadržavanja podataka biće produžen na pet godina. Nasuprot tome, ako korisnici odluče da ne pristanu na obuku modela, postojeća politika zadržavanja podataka od 30 dana ostaće na snazi. Ove promene ne utiču na komercijalne korisnike koji rade po specifičnim korporativnim ugovorima ili korišćenje API-ja, obezbeđujući različite politike za različite segmente korisnika."
- question: "Na koje Claude usluge i tipove korisnika utiču ova nova ažuriranja politike, a na koje ne?" answer: "Ažurirani Uslovi korišćenja za potrošače i Politika privatnosti se specifično primenjuju na pojedinačne korisnike Claude Free, Pro i Max planova kompanije Anthropic. Ovo uključuje slučajeve gde korisnici komuniciraju sa Claude Code-om putem naloga povezanih sa ovim potrošačkim planovima. Međutim, ključno je razumeti da se ova ažuriranja ne proširuju na usluge koje funkcionišu pod komercijalnim uslovima kompanije Anthropic. To znači da su Claude for Work (uključujući timske i korporativne planove), Claude for Government, Claude for Education, i sva korišćenja API-ja – bilo direktno ili putem platformi trećih strana kao što su Amazon Bedrock ili Google Cloud Vertex AI – eksplicitno isključeni iz ovih novih promena politike usmerenih na potrošače. Komercijalni korisnici i integratori API-ja nastaviće da rade po svojim postojećim ugovorima, koji imaju zasebne odredbe o privatnosti i rukovanju podacima."
- question: "Zašto Anthropic sprovodi ove promene, posebno u vezi sa korišćenjem podataka za obuku modela i produženim zadržavanjem?" answer: "Anthropic navodi da su ove promene motivisane fundamentalnom potrebom za kontinuiranim poboljšanjem sposobnosti, bezbednosti i korisnosti velikih jezičkih modela poput Claudea. Interakcije u stvarnom svetu pružaju neprocenjive podatke koji pomažu modelima da nauče koji su odgovori najkorisniji, najtačniji i najbezbedniji. Na primer, programeri koji otklanjaju greške u kodu uz pomoć Claudea pružaju ključne uvide za poboljšanje budućih mogućnosti kodiranja. Produženo zadržavanje podataka od pet godina, specifično za korisnike koji pristanu, dizajnirano je da podrži duge razvojne cikluse AI, obezbeđujući konzistentnost podataka za stabilnije nadogradnje modela i poboljšavajući efikasnost internih klasifikatora koji detektuju i ublažavaju štetne obrasce korišćenja kao što su zloupotreba ili neželjena pošta tokom dužih perioda, čime Claude postaje bezbedniji za sve."
- question: "Koje korake treba da preduzmu postojeći i novi korisnici Claudea u vezi sa ovim ažuriranjima politike i svojim preferencama za podatke?" answer: "Postojeći korisnici Claudea će dobiti obaveštenje unutar aplikacije koje ih poziva da pregledaju ažuriranja i donesu odluku o tome da li će dozvoliti da se njihovi četovi i sesije kodiranja koriste za poboljšanje modela. Korisnici imaju rok do 8. oktobra 2025. godine da izvrše ovaj izbor. Ako se ranije odluče da prihvate, nove politike se odmah primenjuju na nove ili nastavljene četove. Nakon isteka roka, izbor je obavezan za nastavak korišćenja Claudea. Novim korisnicima će ovaj izbor biti predstavljen kao deo početnog procesa registracije. Bez obzira na to da li je neko novi ili postojeći korisnik, preferenca se može izmeniti u bilo kom trenutku putem namenskih podešavanja privatnosti unutar Claude interfejsa, nudeći kontinuiranu kontrolu nad korišćenjem ličnih podataka i obezbeđujući transparentnost."
- question: "Šta se dešava ako korisnik u početku dozvoli korišćenje podataka za obuku modela, ali kasnije odluči da se predomisli i odustane?" answer: "Anthropic naglašava da korisnici zadržavaju punu kontrolu nad svojim preferencama za podatke i mogu ažurirati svoj izbor u bilo kom trenutku putem podešavanja privatnosti. Ako korisnik u početku pristane na obuku modela, a kasnije odluči da isključi ovu postavku, svi novi četovi i sesije kodiranja sa Claudeom više neće biti korišćeni za buduće obuke modela. Važno je napomenuti, međutim, da podaci iz prethodno završenih obuka modela i modela koji su već objavljeni i dalje mogu sadržati podatke iz njihovih prošlih interakcija. Ipak, Anthropic se obavezuje da će prestati da koristi te prethodno sačuvane četove i sesije kodiranja u bilo kojim budućim iteracijama obuke modela kada se registruje preferenca za isključenje, čime se poštuje ažurirani izbor korisnika u pogledu tekućeg korišćenja podataka i privatnosti."
- question: "Kako Anthropic obezbeđuje privatnost korisnika i zaštitu podataka sa ovim novim politikama, posebno sa produženim zadržavanjem?" answer: "Da bi zaštitio privatnost korisnika, Anthropic koristi kombinaciju naprednih alata i automatizovanih procesa dizajniranih da filtriraju ili zamagle osetljive podatke pre nego što se koriste za obuku modela, čak i sa produženim periodom zadržavanja za korisnike koji su pristali. Kompanija eksplicitno navodi da ne prodaje korisničke podatke trećim stranama, pojačavajući svoju posvećenost privatnosti. Štaviše, korisnici zadržavaju kontrolu: brisanje razgovora osigurava da se on neće koristiti za buduću obuku modela, a promena postavke pristanka sprečava da se novi četovi koriste. Ove mere imaju za cilj da usklade potrebu za poboljšanjem modela vođenim podacima sa strogim zaštitama privatnosti, obezbeđujući poverenje korisnika i sigurnost podataka tokom celog životnog ciklusa razvoja AI. Ovaj sveobuhvatan pristup naglašava posvećenost kompanije Anthropic odgovornim AI praksama."
Anthropic uvodi ključna ažuriranja Uslova korišćenja za potrošače i Politike privatnosti za Claude
Anthropic, vodeća kompanija za istraživanje AI, objavila je značajna ažuriranja svojih Uslova korišćenja za potrošače i Politike privatnosti za korisnike svojih Claude AI modela. Ove promene, koje stupaju na snagu 28. avgusta 2025. godine, osmišljene su da osnaže korisnike većom kontrolom nad njihovim podacima, istovremeno omogućavajući kompaniji Anthropic da razvija sposobnije i bezbednije AI sisteme. Suština ovih ažuriranja se fokusira na mehanizam pristanka za korišćenje podataka u obuci modela i produženi period zadržavanja podataka za one koji učestvuju.
Ovaj potez odražava rastući industrijski trend ka većoj transparentnosti i agenciji korisnika u razvoju veštačke inteligencije. Omogućavajući korisnicima da aktivno biraju da li će njihove interakcije doprineti učenju Claudea, Anthropic želi da podstakne kolaborativno okruženje koje koristi i pojedinačnim korisnicima i širem AI ekosistemu. Ova strateška evolucija politika usmerenih na potrošače naglašava posvećenost kompanije odgovornom razvoju AI i poverenju korisnika.
Poboljšanje Claudea sa korisničkim uvidima i zaštitnim merama
Primarna promena u ažuriranoj politici kompanije Anthropic je uvođenje izbora korisnika u vezi sa korišćenjem podataka za poboljšanje modela. Korisnici Claudeovih Free, Pro i Max planova, uključujući one koji koriste Claude Code sa povezanim nalozima, sada će imati opciju da dozvole da se njihovi podaci koriste za obuku budućih Claude modela. Ovo učešće je pozicionirano kao ključni korak ka izgradnji robustnijeg i inteligentnijeg AI-ja.
Pristanak na korišćenje ovih podataka nudi nekoliko direktnih pogodnosti. Prema rečima kompanije Anthropic, interakcije korisnika pružaju dragocene uvide iz stvarnog sveta koji pomažu u rafiniranju sigurnosnih protokola modela, čineći sisteme za detekciju štetnog sadržaja preciznijim i manje sklonim pogrešnom označavanju bezazlenih razgovora. Pored bezbednosti, očekuje se da će korisnički podaci značajno poboljšati Claudeove osnovne sposobnosti, kao što su veština kodiranja, analitičko rasuđivanje i rešavanje složenih problema. Ova povratna sprega je ključna za kontinuiranu evoluciju velikih jezičkih modela, što dovodi do rafiniranijih i korisnijih AI alata za sve.
Važno je napomenuti specifičan opseg ovih ažuriranja. Iako se primenjuju na korisničke naloge, ove promene politike eksplicitno ne proširuju se na usluge regulisane komercijalnim uslovima kompanije Anthropic. To uključuje Claude for Work, Claude for Government, Claude for Education, i sva korišćenja API-ja, bilo direktno ili putem platformi trećih strana kao što su Amazon Bedrock ili Google Cloud Vertex AI. Ova razlika osigurava da komercijalni klijenti i korporativni partneri zadrže svoje postojeće, često prilagođene, sporazume o podacima i okvire privatnosti. Za korisnike koji koriste usluge kao što je Amazon Bedrock AgentCore, odvojeni sporazumi ostaju na snazi.
Navigacija vašim izborima: Pristanak i rokovi
Anthropic je posvećen pružanju korisnicima jasne kontrole nad njihovim podacima. I novi i postojeći korisnici Claudea naići će na različite procese za donošenje odluka o deljenju podataka. Novi korisnici koji se registruju za Claude će pronaći opciju da odaberu svoju preferencu za obuku modela kao integralni deo procesa uključivanja, omogućavajući im da definišu svoja podešavanja privatnosti od samog početka.
Za postojeće korisnike, Anthropic je započeo fazno uvođenje obaveštenja unutar aplikacije. Ovi iskačući prozori će podstaći korisnike da pregledaju ažurirane Uslove korišćenja za potrošače i Politiku privatnosti i odluče da li će dozvoliti da se njihovi podaci koriste za poboljšanje modela. Korisnici imaju grejs period do 8. oktobra 2025. godine da donesu svoju odluku. Ako postojeći korisnik odluči da prihvati nove politike i pristane pre ovog roka, ove promene će odmah stupiti na snagu za sve nove ili nastavljene četove i sesije kodiranja. Ključno je da korisnici donesu odluku do navedenog datuma, jer će nastavak korišćenja Claudea nakon 8. oktobra 2025. godine zahtevati izbor u vezi sa postavkom obuke modela. Ovo osigurava da su korisnici aktivno uključeni u oblikovanje svog okruženja privatnosti.
Ključno je da kontrola korisnika nije jednokratna odluka. Anthropic naglašava da se preference mogu podesiti u bilo kom trenutku putem namenskog odeljka za podešavanja privatnosti unutar Claude interfejsa. Ova fleksibilnost naglašava posvećenost kompanije kontinuiranoj autonomiji korisnika u vezi sa njihovim ličnim podacima.
Upoređivanje politika: Korišćenje i zadržavanje podataka
Da bi se razjasnio uticaj ovih ažuriranja, sledeća tabela sumira ključne razlike između pristajanja i odbijanja korišćenja podataka za obuku modela prema novim Uslovima korišćenja za potrošače:
| Karakteristika | Pristanak za obuku modela (Nova politika) | Nepristanak (Postojeća/Podrazumevana politika) |
|---|---|---|
| Korišćenje podataka | Novi/nastavljeni četovi i sesije kodiranja se koriste za poboljšanje modela i bezbednost. | Novi/nastavljeni četovi i sesije kodiranja se ne koriste za obuku modela. |
| Period zadržavanja podataka | 5 godina za podatke za koje je dat pristanak. | 30 dana za sve podatke. |
| Primenjuje se na | Claude Free, Pro, Max naloge i Claude Code sesije. | Claude Free, Pro, Max naloge i Claude Code sesije. |
| Izuzeci | Komercijalni uslovi, API, Amazon Bedrock, Google Vertex AI usluge. | Isti izuzeci. |
Strateško zadržavanje podataka za dugoročni razvoj AI
Pored pristanka za obuku modela, Anthropic takođe uvodi produženi period zadržavanja podataka za korisnike koji odluče da učestvuju. Ako korisnik pristane da dozvoli svoje podatke za poboljšanje modela, period zadržavanja za nove ili nastavljene četove i sesije kodiranja biće produžen na pet godina. Za korisnike koji ne pristanu, postojećih 30 dana perioda zadržavanja podataka će se i dalje primenjivati. Ovo produženo zadržavanje takođe pokriva povratne informacije poslate o Claudeovim odgovorima na upite.
Obrazloženje za period zadržavanja od pet godina duboko je ukorenjeno u realnosti naprednog razvoja veštačke inteligencije. Veliki jezički modeli prolaze kroz razvojne cikluse koji često traju 18 do 24 meseca pre objavljivanja. Održavanje konzistentnosti podataka tokom dužih perioda je ključno za stvaranje stabilnijih i predvidljivijih modela. Konzistentni podaci omogućavaju modelima da se obučavaju i rafiniraju na slične načine, što dovodi do glatkijih tranzicija i nadogradnji za korisnike.
Štaviše, produženo zadržavanje značajno pomaže u poboljšanju internih klasifikatora kompanije Anthropic – sofisticiranih sistema koji se koriste za identifikaciju i suzbijanje zloupotrebe, zlostavljanja, neželjene pošte i drugih štetnih obrazaca. Ovi sigurnosni mehanizmi postaju efikasniji učenjem iz podataka prikupljenih tokom dužih perioda, poboljšavajući Claudeovu sposobnost da ostane bezbedan i koristan alat za sve. Anthropic je takođe posvećen širim diskusijama o bezbednosti AI, kao što je istaknuto inicijativama poput Anthropic Institut.
Da bi zaštitio privatnost korisnika, Anthropic koristi kombinaciju naprednih alata i automatizovanih procesa za filtriranje ili zamagljivanje osetljivih podataka pre nego što se koriste za obuku modela ili analizu. Kompanija energično tvrdi da ne prodaje korisničke podatke trećim stranama, pojačavajući svoju posvećenost privatnosti čak i sa produženim zadržavanjem za podatke za koje je dat pristanak. Korisnici zadržavaju kontrolu nad svojim podacima čak i nakon pristanka; brisanje određenog razgovora osigurava da se on neće koristiti za buduću obuku modela.
Osnaživanje korisnika i upravljanje podacima
Ažurirani Uslovi korišćenja za potrošače i Politika privatnosti kompanije Anthropic naglašavaju pristup razvoju veštačke inteligencije usmeren na korisnika. Stavljanjem izbora da se doprinese poboljšanju modela direktno u ruke korisnika, kompanija nastoji da podstakne transparentniji i kolaborativniji odnos. Mogućnost izmene ovih preferenci u bilo kom trenutku osigurava da korisnici zadrže kontinuiranu kontrolu nad putanjom svojih podataka.
Ako korisnik u početku pristane na obuku modela, ali kasnije odluči da se predomisli i odustane, Anthropic ima jasnu politiku. Iako podaci korišćeni u prethodno završenim obukama modela i već objavljenim modelima mogu i dalje postojati u tim verzijama, svi novi četovi i sesije kodiranja nakon odluke o odustajanju neće se koristiti za buduću obuku. Kompanija se obavezuje da će prekinuti korišćenje prethodno sačuvanih četova i sesija kodiranja u svim budućim iteracijama obuke modela kada se ažurira preferenca. Ovo nudi robustan mehanizam korisnicima da dinamički upravljaju svojim podešavanjima privatnosti.
Ova ažuriranja predstavljaju odmeren korak ka balansiranju ogromnog potencijala inovacija AI vođenih podacima sa najvažnijim značajem privatnosti korisnika i transparentnosti. Kako se AI modeli sve više integrišu u svakodnevni život, politike poput ovih su ključne za izgradnju poverenja i osiguravanje etičkog razvoja.
Originalni izvor
https://www.anthropic.com/news/updates-to-our-consumer-termsČesto postavljana pitanja
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Будите у току
Примајте најновије AI вести на имејл.
