Code Velocity
AI Modeli

Anthropic Claude: Ažuriranja Uslova korišćenja za potrošače i Politike privatnosti

·5 min čitanja·Anthropic·Originalni izvor
Podeli
Ekran obaveštenja o ažuriranju Uslova korišćenja za potrošače i Politike privatnosti za Anthropic Claude

title: "Anthropic Claude: Ažuriranja Uslova korišćenja za potrošače i Politike privatnosti" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "sr" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI Modeli" keywords:

  • Anthropic
  • Claude AI
  • Uslovi korišćenja za potrošače
  • Politika privatnosti
  • Korišćenje podataka
  • Obuka modela
  • AI Bezbednost
  • Zadržavanje podataka
  • Korisničke preference
  • Razvoj AI
  • Politika LLM-a
  • Transparentnost meta_description: "Anthropic najavljuje ključna ažuriranja Uslova korišćenja za potrošače i Politike privatnosti za Claude, nudeći korisnicima kontrolu nad korišćenjem podataka za poboljšanje modela i produžavajući zadržavanje podataka radi bezbednosti i razvoja." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Ekran obaveštenja o ažuriranju Uslova korišćenja za potrošače i Politike privatnosti za Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Koje su ključne promene uvedene u ažurirane Uslove korišćenja za potrošače i Politiku privatnosti kompanije Anthropic za korisnike Claudea?" answer: "Anthropic uvodi značajna ažuriranja svojih Uslova korišćenja za potrošače i Politike privatnosti, prvenstveno usmerenih na osnaživanje korisnika da izaberu da li će njihovi podaci biti korišćeni za poboljšanje Claude AI modela. Kada je ova postavka omogućena, podaci sa Free, Pro i Max naloga, uključujući Claude Code sesije, doprineće obuci novih modela. Cilj je da se poboljša bezbednost, tačnost i sposobnosti modela u oblastima kao što su kodiranje, analiza i rasuđivanje. Dodatno, za korisnike koji pristanu, period zadržavanja podataka biće produžen na pet godina. Nasuprot tome, ako korisnici odluče da ne pristanu na obuku modela, postojeća politika zadržavanja podataka od 30 dana ostaće na snazi. Ove promene ne utiču na komercijalne korisnike koji rade po specifičnim korporativnim ugovorima ili korišćenje API-ja, obezbeđujući različite politike za različite segmente korisnika."
  • question: "Na koje Claude usluge i tipove korisnika utiču ova nova ažuriranja politike, a na koje ne?" answer: "Ažurirani Uslovi korišćenja za potrošače i Politika privatnosti se specifično primenjuju na pojedinačne korisnike Claude Free, Pro i Max planova kompanije Anthropic. Ovo uključuje slučajeve gde korisnici komuniciraju sa Claude Code-om putem naloga povezanih sa ovim potrošačkim planovima. Međutim, ključno je razumeti da se ova ažuriranja ne proširuju na usluge koje funkcionišu pod komercijalnim uslovima kompanije Anthropic. To znači da su Claude for Work (uključujući timske i korporativne planove), Claude for Government, Claude for Education, i sva korišćenja API-ja – bilo direktno ili putem platformi trećih strana kao što su Amazon Bedrock ili Google Cloud Vertex AI – eksplicitno isključeni iz ovih novih promena politike usmerenih na potrošače. Komercijalni korisnici i integratori API-ja nastaviće da rade po svojim postojećim ugovorima, koji imaju zasebne odredbe o privatnosti i rukovanju podacima."
  • question: "Zašto Anthropic sprovodi ove promene, posebno u vezi sa korišćenjem podataka za obuku modela i produženim zadržavanjem?" answer: "Anthropic navodi da su ove promene motivisane fundamentalnom potrebom za kontinuiranim poboljšanjem sposobnosti, bezbednosti i korisnosti velikih jezičkih modela poput Claudea. Interakcije u stvarnom svetu pružaju neprocenjive podatke koji pomažu modelima da nauče koji su odgovori najkorisniji, najtačniji i najbezbedniji. Na primer, programeri koji otklanjaju greške u kodu uz pomoć Claudea pružaju ključne uvide za poboljšanje budućih mogućnosti kodiranja. Produženo zadržavanje podataka od pet godina, specifično za korisnike koji pristanu, dizajnirano je da podrži duge razvojne cikluse AI, obezbeđujući konzistentnost podataka za stabilnije nadogradnje modela i poboljšavajući efikasnost internih klasifikatora koji detektuju i ublažavaju štetne obrasce korišćenja kao što su zloupotreba ili neželjena pošta tokom dužih perioda, čime Claude postaje bezbedniji za sve."
  • question: "Koje korake treba da preduzmu postojeći i novi korisnici Claudea u vezi sa ovim ažuriranjima politike i svojim preferencama za podatke?" answer: "Postojeći korisnici Claudea će dobiti obaveštenje unutar aplikacije koje ih poziva da pregledaju ažuriranja i donesu odluku o tome da li će dozvoliti da se njihovi četovi i sesije kodiranja koriste za poboljšanje modela. Korisnici imaju rok do 8. oktobra 2025. godine da izvrše ovaj izbor. Ako se ranije odluče da prihvate, nove politike se odmah primenjuju na nove ili nastavljene četove. Nakon isteka roka, izbor je obavezan za nastavak korišćenja Claudea. Novim korisnicima će ovaj izbor biti predstavljen kao deo početnog procesa registracije. Bez obzira na to da li je neko novi ili postojeći korisnik, preferenca se može izmeniti u bilo kom trenutku putem namenskih podešavanja privatnosti unutar Claude interfejsa, nudeći kontinuiranu kontrolu nad korišćenjem ličnih podataka i obezbeđujući transparentnost."
  • question: "Šta se dešava ako korisnik u početku dozvoli korišćenje podataka za obuku modela, ali kasnije odluči da se predomisli i odustane?" answer: "Anthropic naglašava da korisnici zadržavaju punu kontrolu nad svojim preferencama za podatke i mogu ažurirati svoj izbor u bilo kom trenutku putem podešavanja privatnosti. Ako korisnik u početku pristane na obuku modela, a kasnije odluči da isključi ovu postavku, svi novi četovi i sesije kodiranja sa Claudeom više neće biti korišćeni za buduće obuke modela. Važno je napomenuti, međutim, da podaci iz prethodno završenih obuka modela i modela koji su već objavljeni i dalje mogu sadržati podatke iz njihovih prošlih interakcija. Ipak, Anthropic se obavezuje da će prestati da koristi te prethodno sačuvane četove i sesije kodiranja u bilo kojim budućim iteracijama obuke modela kada se registruje preferenca za isključenje, čime se poštuje ažurirani izbor korisnika u pogledu tekućeg korišćenja podataka i privatnosti."
  • question: "Kako Anthropic obezbeđuje privatnost korisnika i zaštitu podataka sa ovim novim politikama, posebno sa produženim zadržavanjem?" answer: "Da bi zaštitio privatnost korisnika, Anthropic koristi kombinaciju naprednih alata i automatizovanih procesa dizajniranih da filtriraju ili zamagle osetljive podatke pre nego što se koriste za obuku modela, čak i sa produženim periodom zadržavanja za korisnike koji su pristali. Kompanija eksplicitno navodi da ne prodaje korisničke podatke trećim stranama, pojačavajući svoju posvećenost privatnosti. Štaviše, korisnici zadržavaju kontrolu: brisanje razgovora osigurava da se on neće koristiti za buduću obuku modela, a promena postavke pristanka sprečava da se novi četovi koriste. Ove mere imaju za cilj da usklade potrebu za poboljšanjem modela vođenim podacima sa strogim zaštitama privatnosti, obezbeđujući poverenje korisnika i sigurnost podataka tokom celog životnog ciklusa razvoja AI. Ovaj sveobuhvatan pristup naglašava posvećenost kompanije Anthropic odgovornim AI praksama."

Anthropic uvodi ključna ažuriranja Uslova korišćenja za potrošače i Politike privatnosti za Claude

Anthropic, vodeća kompanija za istraživanje AI, objavila je značajna ažuriranja svojih Uslova korišćenja za potrošače i Politike privatnosti za korisnike svojih Claude AI modela. Ove promene, koje stupaju na snagu 28. avgusta 2025. godine, osmišljene su da osnaže korisnike većom kontrolom nad njihovim podacima, istovremeno omogućavajući kompaniji Anthropic da razvija sposobnije i bezbednije AI sisteme. Suština ovih ažuriranja se fokusira na mehanizam pristanka za korišćenje podataka u obuci modela i produženi period zadržavanja podataka za one koji učestvuju.

Ovaj potez odražava rastući industrijski trend ka većoj transparentnosti i agenciji korisnika u razvoju veštačke inteligencije. Omogućavajući korisnicima da aktivno biraju da li će njihove interakcije doprineti učenju Claudea, Anthropic želi da podstakne kolaborativno okruženje koje koristi i pojedinačnim korisnicima i širem AI ekosistemu. Ova strateška evolucija politika usmerenih na potrošače naglašava posvećenost kompanije odgovornom razvoju AI i poverenju korisnika.

Poboljšanje Claudea sa korisničkim uvidima i zaštitnim merama

Primarna promena u ažuriranoj politici kompanije Anthropic je uvođenje izbora korisnika u vezi sa korišćenjem podataka za poboljšanje modela. Korisnici Claudeovih Free, Pro i Max planova, uključujući one koji koriste Claude Code sa povezanim nalozima, sada će imati opciju da dozvole da se njihovi podaci koriste za obuku budućih Claude modela. Ovo učešće je pozicionirano kao ključni korak ka izgradnji robustnijeg i inteligentnijeg AI-ja.

Pristanak na korišćenje ovih podataka nudi nekoliko direktnih pogodnosti. Prema rečima kompanije Anthropic, interakcije korisnika pružaju dragocene uvide iz stvarnog sveta koji pomažu u rafiniranju sigurnosnih protokola modela, čineći sisteme za detekciju štetnog sadržaja preciznijim i manje sklonim pogrešnom označavanju bezazlenih razgovora. Pored bezbednosti, očekuje se da će korisnički podaci značajno poboljšati Claudeove osnovne sposobnosti, kao što su veština kodiranja, analitičko rasuđivanje i rešavanje složenih problema. Ova povratna sprega je ključna za kontinuiranu evoluciju velikih jezičkih modela, što dovodi do rafiniranijih i korisnijih AI alata za sve.

Važno je napomenuti specifičan opseg ovih ažuriranja. Iako se primenjuju na korisničke naloge, ove promene politike eksplicitno ne proširuju se na usluge regulisane komercijalnim uslovima kompanije Anthropic. To uključuje Claude for Work, Claude for Government, Claude for Education, i sva korišćenja API-ja, bilo direktno ili putem platformi trećih strana kao što su Amazon Bedrock ili Google Cloud Vertex AI. Ova razlika osigurava da komercijalni klijenti i korporativni partneri zadrže svoje postojeće, često prilagođene, sporazume o podacima i okvire privatnosti. Za korisnike koji koriste usluge kao što je Amazon Bedrock AgentCore, odvojeni sporazumi ostaju na snazi.

Anthropic je posvećen pružanju korisnicima jasne kontrole nad njihovim podacima. I novi i postojeći korisnici Claudea naići će na različite procese za donošenje odluka o deljenju podataka. Novi korisnici koji se registruju za Claude će pronaći opciju da odaberu svoju preferencu za obuku modela kao integralni deo procesa uključivanja, omogućavajući im da definišu svoja podešavanja privatnosti od samog početka.

Za postojeće korisnike, Anthropic je započeo fazno uvođenje obaveštenja unutar aplikacije. Ovi iskačući prozori će podstaći korisnike da pregledaju ažurirane Uslove korišćenja za potrošače i Politiku privatnosti i odluče da li će dozvoliti da se njihovi podaci koriste za poboljšanje modela. Korisnici imaju grejs period do 8. oktobra 2025. godine da donesu svoju odluku. Ako postojeći korisnik odluči da prihvati nove politike i pristane pre ovog roka, ove promene će odmah stupiti na snagu za sve nove ili nastavljene četove i sesije kodiranja. Ključno je da korisnici donesu odluku do navedenog datuma, jer će nastavak korišćenja Claudea nakon 8. oktobra 2025. godine zahtevati izbor u vezi sa postavkom obuke modela. Ovo osigurava da su korisnici aktivno uključeni u oblikovanje svog okruženja privatnosti.

Ključno je da kontrola korisnika nije jednokratna odluka. Anthropic naglašava da se preference mogu podesiti u bilo kom trenutku putem namenskog odeljka za podešavanja privatnosti unutar Claude interfejsa. Ova fleksibilnost naglašava posvećenost kompanije kontinuiranoj autonomiji korisnika u vezi sa njihovim ličnim podacima.

Upoređivanje politika: Korišćenje i zadržavanje podataka

Da bi se razjasnio uticaj ovih ažuriranja, sledeća tabela sumira ključne razlike između pristajanja i odbijanja korišćenja podataka za obuku modela prema novim Uslovima korišćenja za potrošače:

KarakteristikaPristanak za obuku modela (Nova politika)Nepristanak (Postojeća/Podrazumevana politika)
Korišćenje podatakaNovi/nastavljeni četovi i sesije kodiranja se koriste za poboljšanje modela i bezbednost.Novi/nastavljeni četovi i sesije kodiranja se ne koriste za obuku modela.
Period zadržavanja podataka5 godina za podatke za koje je dat pristanak.30 dana za sve podatke.
Primenjuje se naClaude Free, Pro, Max naloge i Claude Code sesije.Claude Free, Pro, Max naloge i Claude Code sesije.
IzuzeciKomercijalni uslovi, API, Amazon Bedrock, Google Vertex AI usluge.Isti izuzeci.

Strateško zadržavanje podataka za dugoročni razvoj AI

Pored pristanka za obuku modela, Anthropic takođe uvodi produženi period zadržavanja podataka za korisnike koji odluče da učestvuju. Ako korisnik pristane da dozvoli svoje podatke za poboljšanje modela, period zadržavanja za nove ili nastavljene četove i sesije kodiranja biće produžen na pet godina. Za korisnike koji ne pristanu, postojećih 30 dana perioda zadržavanja podataka će se i dalje primenjivati. Ovo produženo zadržavanje takođe pokriva povratne informacije poslate o Claudeovim odgovorima na upite.

Obrazloženje za period zadržavanja od pet godina duboko je ukorenjeno u realnosti naprednog razvoja veštačke inteligencije. Veliki jezički modeli prolaze kroz razvojne cikluse koji često traju 18 do 24 meseca pre objavljivanja. Održavanje konzistentnosti podataka tokom dužih perioda je ključno za stvaranje stabilnijih i predvidljivijih modela. Konzistentni podaci omogućavaju modelima da se obučavaju i rafiniraju na slične načine, što dovodi do glatkijih tranzicija i nadogradnji za korisnike.

Štaviše, produženo zadržavanje značajno pomaže u poboljšanju internih klasifikatora kompanije Anthropic – sofisticiranih sistema koji se koriste za identifikaciju i suzbijanje zloupotrebe, zlostavljanja, neželjene pošte i drugih štetnih obrazaca. Ovi sigurnosni mehanizmi postaju efikasniji učenjem iz podataka prikupljenih tokom dužih perioda, poboljšavajući Claudeovu sposobnost da ostane bezbedan i koristan alat za sve. Anthropic je takođe posvećen širim diskusijama o bezbednosti AI, kao što je istaknuto inicijativama poput Anthropic Institut.

Da bi zaštitio privatnost korisnika, Anthropic koristi kombinaciju naprednih alata i automatizovanih procesa za filtriranje ili zamagljivanje osetljivih podataka pre nego što se koriste za obuku modela ili analizu. Kompanija energično tvrdi da ne prodaje korisničke podatke trećim stranama, pojačavajući svoju posvećenost privatnosti čak i sa produženim zadržavanjem za podatke za koje je dat pristanak. Korisnici zadržavaju kontrolu nad svojim podacima čak i nakon pristanka; brisanje određenog razgovora osigurava da se on neće koristiti za buduću obuku modela.

Osnaživanje korisnika i upravljanje podacima

Ažurirani Uslovi korišćenja za potrošače i Politika privatnosti kompanije Anthropic naglašavaju pristup razvoju veštačke inteligencije usmeren na korisnika. Stavljanjem izbora da se doprinese poboljšanju modela direktno u ruke korisnika, kompanija nastoji da podstakne transparentniji i kolaborativniji odnos. Mogućnost izmene ovih preferenci u bilo kom trenutku osigurava da korisnici zadrže kontinuiranu kontrolu nad putanjom svojih podataka.

Ako korisnik u početku pristane na obuku modela, ali kasnije odluči da se predomisli i odustane, Anthropic ima jasnu politiku. Iako podaci korišćeni u prethodno završenim obukama modela i već objavljenim modelima mogu i dalje postojati u tim verzijama, svi novi četovi i sesije kodiranja nakon odluke o odustajanju neće se koristiti za buduću obuku. Kompanija se obavezuje da će prekinuti korišćenje prethodno sačuvanih četova i sesija kodiranja u svim budućim iteracijama obuke modela kada se ažurira preferenca. Ovo nudi robustan mehanizam korisnicima da dinamički upravljaju svojim podešavanjima privatnosti.

Ova ažuriranja predstavljaju odmeren korak ka balansiranju ogromnog potencijala inovacija AI vođenih podacima sa najvažnijim značajem privatnosti korisnika i transparentnosti. Kako se AI modeli sve više integrišu u svakodnevni život, politike poput ovih su ključne za izgradnju poverenja i osiguravanje etičkog razvoja.

Često postavljana pitanja

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Будите у току

Примајте најновије AI вести на имејл.

Podeli