Code Velocity
AI Modeli

Anthropic Claude: Ažuriranja uvjeta korištenja za potrošače i pravila o privatnosti

·5 min čitanja·Anthropic·Izvorni izvor
Podijeli
Zaslon s obavijesti o ažuriranju Anthropic Claude Uvjeta korištenja za potrošače i Pravila o privatnosti

Anthropic uvodi ključna ažuriranja Claudeovih Uvjeta korištenja za potrošače i Pravila o privatnosti

Anthropic, vodeća tvrtka za istraživanje umjetne inteligencije, najavila je značajna ažuriranja svojih Uvjeta korištenja za potrošače i Pravila o privatnosti za korisnike svojih Claude AI modela. Ove promjene, koje stupaju na snagu 28. kolovoza 2025., osmišljene su kako bi korisnicima omogućile veću kontrolu nad svojim podacima, istovremeno omogućujući tvrtki Anthropic razvoj sposobnijih i sigurnijih AI sustava. Srž ovih ažuriranja usmjerena je na mehanizam prijave za korištenje podataka u obuci modela i produljeno razdoblje zadržavanja podataka za one koji sudjeluju.

Ovaj potez odražava rastući industrijski trend prema većoj transparentnosti i korisničkoj autonomiji u razvoju umjetne inteligencije. Omogućujući korisnicima da aktivno odaberu hoće li njihove interakcije doprinijeti Claudeovom učenju, Anthropic nastoji poticati suradničko okruženje koje koristi i pojedinim korisnicima i širem AI ekosustavu. Ova strateška evolucija politika usmjerenih na potrošače naglašava predanost tvrtke odgovornom razvoju umjetne inteligencije i povjerenju korisnika.

Unapređenje Claudea s uvidima i zaštitom koje pokreću korisnici

Primarna promjena u Anthropicovoj ažuriranoj politici je uvođenje korisničkog izbora u vezi s korištenjem podataka za poboljšanje modela. Korisnici Claudeovih Free, Pro i Max planova, uključujući one koji koriste Claude Code s povezanih računa, sada će imati opciju dopustiti da se njihovi podaci koriste za obuku budućih Claude modela. Ovo sudjelovanje je pozicionirano kao ključan korak prema izgradnji robusnije i inteligentnije umjetne inteligencije.

Odlučivanje za ovo korištenje podataka nudi nekoliko izravnih prednosti. Prema Anthropicu, korisničke interakcije pružaju vrijedne uvide iz stvarnog svijeta koji pomažu u poboljšanju sigurnosnih protokola modela, čineći sustave za otkrivanje štetnog sadržaja točnijima i manje sklonima pogrešnom označavanju bezazlenih razgovora. Osim sigurnosti, očekuje se da će korisnički podaci značajno poboljšati Claudeove osnovne sposobnosti, kao što su vještina kodiranja, analitičko rasuđivanje i vještine rješavanja složenih problema. Ova povratna sprega ključna je za kontinuiranu evoluciju velikih jezičnih modela, što dovodi do profinjenijih i korisnijih AI alata za sve.

Važno je napomenuti specifičan opseg ovih ažuriranja. Iako se primjenjuju na račune potrošačke razine, ove promjene politike izričito se ne odnose na usluge obuhvaćene Anthropicovim Komercijalnim uvjetima. To uključuje Claude for Work, Claude for Government, Claude for Education i svu upotrebu API-ja, bilo izravno ili putem platformi trećih strana kao što su Amazon Bedrock ili Google Cloud Vertex AI. Ova razlika osigurava da komercijalni klijenti i partneri na razini poduzeća zadrže svoje postojeće, često prilagođene, podatkovne ugovore i okvire privatnosti. Za korisnike koji koriste usluge kao što je Amazon Bedrock AgentCore, zasebni ugovori ostaju na snazi.

Upravljanje vašim izborima: Prijava i rokovi

Anthropic je posvećen pružanju korisnicima jasne kontrole nad njihovim podacima. I novi i postojeći korisnici Claudea naići će na različite procese za donošenje odluka o dijeljenju podataka. Novi korisnici koji se prijavljuju za Claude pronaći će opciju odabira svojih preferencija za obuku modela kao sastavni dio postupka prijave, što im omogućuje da od samog početka definiraju svoje postavke privatnosti.

Za postojeće korisnike, Anthropic je započeo postupno uvođenje obavijesti unutar aplikacije. Ovi skočni prozori potaknut će korisnike da pregledaju ažurirane Uvjete korištenja za potrošače i Pravila o privatnosti te da odluče hoće li dopustiti da se njihovi podaci koriste za poboljšanje modela. Korisnici imaju razdoblje do 8. listopada 2025. da donesu svoj izbor. Ako postojeći korisnik odluči prihvatiti nova pravila i prijaviti se prije ovog roka, ove promjene stupit će na snagu odmah za sve nove ili nastavljene razgovore i sesije kodiranja. Ključno je da korisnici donesu izbor do navedenog datuma, jer će nastavak korištenja Claudea nakon 8. listopada 2025. zahtijevati odabir postavke obuke modela. To osigurava da su korisnici aktivno uključeni u oblikovanje svog okruženja privatnosti.

Ključno je da korisnička kontrola nije jednokratna odluka. Anthropic naglašava da se preferencije mogu prilagoditi u bilo kojem trenutku putem namjenskog odjeljka Postavke privatnosti unutar sučelja Claude. Ova fleksibilnost naglašava predanost tvrtke kontinuiranoj autonomiji korisnika u pogledu njihovih osobnih podataka.

Usporedba politika: Korištenje i zadržavanje podataka

Kako bi se razjasnio utjecaj ovih ažuriranja, sljedeća tablica sažima ključne razlike između prijave i odjave od korištenja podataka za obuku modela prema novim Uvjetima korištenja za potrošače:

ZnačajkaPrijava za obuku modela (nova politika)Odjava (postojeća/zadana politika)
Korištenje podataka'Novi/nastavljeni razgovori i sesije kodiranja koriste se za poboljšanje modela i sigurnost.''Novi/nastavljeni razgovori i sesije kodiranja ne koriste se za obuku modela.'
Razdoblje zadržavanja podataka'5 godina za prijavljene podatke.''30 dana za sve podatke.'
Primjenjuje se na'Claude Free, Pro, Max račune i Claude Code sesije.''Claude Free, Pro, Max račune i Claude Code sesije.'
Iznimke'Komercijalni uvjeti, API, Amazon Bedrock, usluge Google Vertex AI.''Iste iznimke.'

Strateško zadržavanje podataka za dugoročni razvoj umjetne inteligencije

Uz prijavu za obuku modela, Anthropic također uvodi produljeno razdoblje zadržavanja podataka za korisnike koji se odluče sudjelovati. Ako korisnik odluči dopustiti korištenje svojih podataka za poboljšanje modela, razdoblje zadržavanja za nove ili nastavljene razgovore i sesije kodiranja bit će produljeno na pet godina. Za korisnike koji se ne prijave, i dalje će se primjenjivati postojeće razdoblje zadržavanja podataka od 30 dana. Ovo produljeno zadržavanje također pokriva povratne informacije poslane o Claudeovim odgovorima na upite.

Obrazloženje iza petogodišnjeg razdoblja zadržavanja duboko je ukorijenjeno u stvarnosti naprednog razvoja umjetne inteligencije. Veliki jezični modeli prolaze kroz razvojne cikluse koji često traju od 18 do 24 mjeseca prije objave. Održavanje dosljednosti podataka tijekom duljih razdoblja ključno je za stvaranje stabilnijih i predvidljivijih modela. Dosljedni podaci omogućuju obuku i usavršavanje modela na slične načine, što dovodi do glađih prijelaza i nadogradnji za korisnike.

Nadalje, produljeno zadržavanje značajno pomaže u poboljšanju Anthropicovih internih klasifikatora – sofisticiranih sustava koji se koriste za identifikaciju i suzbijanje zlouporabe, zlostavljanja, neželjene pošte i drugih štetnih obrazaca. Ovi sigurnosni mehanizmi postaju učinkovitiji učenjem iz podataka prikupljenih tijekom duljih razdoblja, čime se poboljšava Claudeova sposobnost da ostane siguran i koristan alat za sve. Anthropic je također posvećen širim raspravama o sigurnosti umjetne inteligencije, kao što je istaknuto inicijativama poput The Anthropic Institute.

Kako bi zaštitio privatnost korisnika, Anthropic koristi kombinaciju naprednih alata i automatiziranih procesa osmišljenih za filtriranje ili zamagljivanje osjetljivih podataka prije nego što se koriste za bilo kakvu obuku ili analizu modela. Tvrtka naglašava da ne prodaje korisničke podatke trećim stranama, pojačavajući svoju predanost privatnosti čak i uz produljeno zadržavanje za prijavljene podatke. Korisnici zadržavaju kontrolu nad svojim podacima čak i nakon prijave; brisanje određenog razgovora osigurava da se neće koristiti za buduću obuku modela.

Osnaživanje korisnika i upravljanje podacima

Anthropicovi ažurirani Uvjeti korištenja za potrošače i Pravila o privatnosti naglašavaju pristup razvoju umjetne inteligencije usmjeren na korisnika. Stavljajući izbor doprinosa poboljšanju modela izravno u ruke korisnika, tvrtka nastoji poticati transparentniji i suradničkiji odnos. Mogućnost mijenjanja ovih preferencija u bilo kojem trenutku osigurava da korisnici zadrže kontinuiranu kontrolu nad putovanjem svojih podataka.

Ako se korisnik u početku prijavi za obuku modela, ali se kasnije predomisli i odluči odjaviti, Anthropic ima jasnu politiku. Iako podaci korišteni u prethodno dovršenim obukama modela i već objavljenim modelima mogu i dalje postojati unutar tih verzija, svi novi razgovori i sesije kodiranja nakon odluke o odjavi neće se koristiti za buduću obuku. Tvrtka se obvezuje prekinuti korištenje prethodno pohranjenih razgovora i sesija kodiranja u svim budućim iteracijama obuke modela nakon što se registrira preferencija odjave, čime se poštuje ažurirani izbor korisnika za kontinuirano korištenje podataka i privatnost. To nudi robustan mehanizam korisnicima za dinamično upravljanje svojim postavkama privatnosti.

Ova ažuriranja predstavljaju odmjereni korak prema usklađivanju ogromnog potencijala inovacija umjetne inteligencije temeljenih na podacima s iznimnom važnošću privatnosti korisnika i transparentnosti. Kako se AI modeli sve više integriraju u svakodnevni život, ovakve politike ključne su za izgradnju povjerenja i osiguravanje etičkog razvoja.

Često postavljana pitanja

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Budite u toku

Primajte najnovije AI vijesti na e-mail.

Podijeli