Code Velocity
Modeli umetne inteligence

Anthropic Claude: Posodobitve pogojev za uporabnike in pravilnika o zasebnosti

·5 min branja·Anthropic·Izvirni vir
Deli
Zaslon obvestila o posodobitvi pogojev za uporabnike in pravilnika o zasebnosti Anthropic Claude

Anthropic uvaja ključne posodobitve pogojev za uporabnike in pravilnika o zasebnosti za Claudea

Anthropic, vodilno podjetje za raziskave umetne inteligence, je napovedalo pomembne posodobitve svojih pogojev za uporabnike in pravilnika o zasebnosti za uporabnike svojih modelov umetne inteligence Claude. Te spremembe, ki začnejo veljati 28. avgusta 2025, so zasnovane tako, da uporabnikom omogočijo večji nadzor nad njihovimi podatki, hkrati pa Anthropicu omogočijo razvoj zmogljivejših in varnejših sistemov umetne inteligence. Jedro teh posodobitev se osredotoča na mehanizem privolitve za uporabo podatkov pri usposabljanju modelov in podaljšano obdobje hrambe podatkov za tiste, ki sodelujejo.

Ta poteza odraža naraščajoč trend v industriji k večji preglednosti in avtonomiji uporabnikov pri razvoju umetne inteligence. Z omogočanjem uporabnikom, da aktivno izberejo, ali njihove interakcije prispevajo k učenju Claudea, si Anthropic prizadeva ustvariti sodelovalno okolje, ki koristi tako posameznim uporabnikom kot širšemu ekosistemu umetne inteligence. Ta strateška evolucija potrošniških politik poudarja zavezanost podjetja k odgovornemu razvoju umetne inteligence in zaupanju uporabnikov.

Izboljšanje Claudea z uporabniško usmerjenimi vpogledi in zaščitnimi ukrepi

Primarna sprememba v posodobljenem pravilniku Anthropic je uvedba izbire uporabnika glede uporabe podatkov za izboljšanje modela. Uporabniki na načrtih Claude Free, Pro in Max, vključno s tistimi, ki uporabljajo Claude Code iz povezanih računov, bodo imeli zdaj možnost, da dovolijo, da njihovi podatki prispevajo k usposabljanju prihodnjih modelov Claude. To sodelovanje je postavljeno kot ključni korak k izgradnji robustnejše in inteligentnejše umetne inteligence.

Privolitev v to uporabo podatkov prinaša več neposrednih koristi. Po navedbah Anthropic interakcije uporabnikov zagotavljajo dragocene vpoglede iz resničnega sveta, ki pomagajo izboljšati varnostne protokole modela, zaradi česar so sistemi za odkrivanje škodljive vsebine natančnejši in manj nagnjeni k napačni označitvi neškodljivih pogovorov. Poleg varnosti se pričakuje, da bodo uporabniški podatki pomembno izboljšali osnovne zmogljivosti Claudea, kot so veščine kodiranja, analitično sklepanje in sposobnosti reševanja kompleksnih problemov. Ta povratna zanka je bistvena za nenehen razvoj velikih jezikovnih modelov, kar vodi do bolj izpopolnjenih in uporabnih orodij umetne inteligence za vse.

Pomembno je opozoriti na specifičen obseg teh posodobitev. Čeprav veljajo za potrošniške račune, se te spremembe pravilnika izrecno ne razširjajo na storitve, ki jih urejajo komercialni pogoji Anthropic. To vključuje Claude za delo, Claude za vlado, Claude za izobraževanje in vso uporabo API-jev, bodisi neposredno ali prek platform tretjih oseb, kot sta Amazon Bedrock ali Google Cloud's Vertex AI. Ta razlika zagotavlja, da komercialne stranke in partnerji na ravni podjetij ohranijo svoje obstoječe, pogosto prilagojene, podatkovne sporazume in okvire zasebnosti. Za uporabnike, ki uporabljajo storitve, kot je Amazon Bedrock AgentCore, ostanejo v veljavi ločeni sporazumi.

Anthropic je zavezan zagotavljanju jasnega nadzora uporabnikom nad njihovimi podatki. Novi in obstoječi uporabniki Claudea se bodo srečali z različnimi postopki za sprejemanje odločitev o skupni rabi podatkov. Novi uporabniki, ki se prijavijo za Claude, bodo našli možnost izbire svojih preferenc za usposabljanje modela kot sestavni del postopka prijave, kar jim omogoča, da določijo svoje nastavitve zasebnosti že na začetku.

Za obstoječe uporabnike je Anthropic začel postopno uvajanje obvestil v aplikaciji. Ta pojavna okna bodo uporabnike pozvala k pregledu posodobljenih pogojev za uporabnike in pravilnika o zasebnosti ter k odločitvi, ali bodo dovolili uporabo svojih podatkov za izboljšanje modela. Uporabniki imajo prehodno obdobje do 8. oktobra 2025, da se odločijo. Če se obstoječi uporabnik odloči sprejeti nove pravilnike in se vključi pred tem rokom, bodo te spremembe takoj začele veljati za vse nove ali nadaljevane klepete in kodirne seje. Ključno je, da uporabniki izberejo do določenega datuma, saj bo nadaljnja uporaba Claudea po 8. oktobru 2025 zahtevala izbiro nastavitve za usposabljanje modela. To zagotavlja, da so uporabniki aktivno vključeni v oblikovanje svoje zasebnosti.

Nadzor uporabnika ni enkratna odločitev. Anthropic poudarja, da je mogoče preference kadar koli prilagoditi prek namenskega razdelka z nastavitvami zasebnosti v vmesniku Claude. Ta prilagodljivost poudarja zavezanost podjetja k nenehni avtonomiji uporabnika glede osebnih podatkov.

Primerjava pravilnikov: uporaba in hramba podatkov

Za pojasnitev vpliva teh posodobitev, naslednja tabela povzema ključne razlike med privolitvijo in zavrnitvijo uporabe podatkov za usposabljanje modelov v skladu z novimi pogoji za uporabnike:

FunkcijaPrivolitev za usposabljanje modela (nov pravilnik)Zavrnitev (obstoječi/privzeti pravilnik)
Uporaba podatkovNovi/nadaljevani klepeti in kodirne seje se uporabljajo za izboljšanje modela in varnost.Novi/nadaljevani klepeti in kodirne seje se ne uporabljajo za usposabljanje modela.
Obdobje hrambe podatkov5 let za podatke, za katere je bila podana privolitev.30 dni za vse podatke.
Velja zaClaude Free, Pro, Max račune in seje Claude Code.Claude Free, Pro, Max račune in seje Claude Code.
IzključitveKomercialni pogoji, API, Amazon Bedrock, Google Vertex AI storitve.Enake izključitve.

Strateška hramba podatkov za dolgoročni razvoj umetne inteligence

Poleg privolitve za usposabljanje modelov Anthropic uvaja tudi podaljšano obdobje hrambe podatkov za uporabnike, ki se odločijo za sodelovanje. Če se uporabnik odloči, da dovoli svoje podatke za izboljšanje modela, bo obdobje hrambe za nove ali nadaljevane klepete in kodirne seje podaljšano na pet let. Za uporabnike, ki se ne odločijo za privolitev, bo še naprej veljalo obstoječe 30-dnevno obdobje hrambe podatkov. To podaljšano hramba zajema tudi povratne informacije, posredovane o odzivih Claudea na pozive.

Utemeljitev petletnega obdobja hrambe je globoko zakoreninjena v realnosti naprednega razvoja umetne inteligence. Veliki jezikovni modeli gredo skozi razvojne cikle, ki pogosto trajajo od 18 do 24 mesecev pred izdajo. Ohranjanje doslednosti podatkov v daljših obdobjih je ključnega pomena za ustvarjanje stabilnejših in predvidljivejših modelov. Dosledni podatki omogočajo usposabljanje in izpopolnjevanje modelov na podobne načine, kar vodi do bolj gladkih prehodov in nadgradenj za uporabnike.

Poleg tega podaljšana hramba znatno pomaga pri izboljšanju notranjih klasifikatorjev Anthropic – prefinjenih sistemov, ki se uporabljajo za prepoznavanje in preprečevanje zlorab, neprimerne vsebine, neželene pošte in drugih škodljivih vzorcev. Ti varnostni mehanizmi postanejo učinkovitejši z učenjem iz podatkov, zbranih v daljših obdobjih, kar izboljšuje sposobnost Claudea, da ostane varno in koristno orodje za vse. Anthropic se zavezuje tudi k širšim razpravam o varnosti umetne inteligence, kot poudarjajo pobude, kot je The Anthropic Institute.

Za zaščito zasebnosti uporabnikov Anthropic uporablja kombinacijo naprednih orodij in avtomatiziranih procesov za filtriranje ali zakrivanje občutljivih podatkov, preden se ti uporabijo za usposabljanje modelov ali analizo. Podjetje odločno izjavlja, da ne prodaja uporabniških podatkov tretjim osebam, kar krepi njegovo zavezanost k zasebnosti tudi pri podaljšani hrambi za podatke, za katere je bila podana privolitev. Uporabniki ohranjajo nadzor nad svojimi podatki tudi po privolitvi; izbris določenega pogovora zagotavlja, da se ne bo uporabil za prihodnje usposabljanje modelov.

Opolnomočenje uporabnikov in upravljanje podatkov

Posodobljeni pogoji za uporabnike in pravilnik o zasebnosti Anthropic poudarjajo uporabniško usmerjen pristop k razvoju umetne inteligence. Z dajanjem izbire, da prispevajo k izboljšanju modela, neposredno v roke uporabnika, si podjetje prizadeva spodbuditi bolj pregledno in sodelovalno razmerje. Možnost spreminjanja teh preferenc kadar koli zagotavlja, da uporabniki ohranijo stalen nadzor nad potovanjem svojih podatkov.

Če se uporabnik sprva odloči za usposabljanje modela, pozneje pa se premisli in se odloči za izključitev, ima Anthropic jasen pravilnik. Medtem ko lahko podatki, uporabljeni v predhodno dokončanih usposabljanjih modelov in že izdanih modelih, še vedno obstajajo v teh različicah, se kateri koli novi klepeti in kodirne seje po odločitvi o izključitvi ne bodo uporabljali za prihodnje usposabljanje. Podjetje se zavezuje, da bo prenehalo uporabljati predhodno shranjene klepete in kodirne seje v vseh prihodnjih iteracijah usposabljanja modelov, ko bo preferenca posodobljena. To ponuja robusten mehanizem za dinamično upravljanje uporabnikovih nastavitev zasebnosti.

Te posodobitve predstavljajo preudaren korak k uravnoteženju izjemnega potenciala inovacij umetne inteligence, ki temeljijo na podatkih, z izjemnim pomenom zasebnosti in preglednosti uporabnikov. Ker so modeli umetne inteligence vse bolj integrirani v vsakdanje življenje, so takšni pravilniki ključnega pomena za izgradnjo zaupanja in zagotavljanje etičnega razvoja.

Pogosta vprašanja

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Bodite na tekočem

Prejemajte najnovejše AI novice po e-pošti.

Deli