Code Velocity
AI mudelid

Anthropic Claude: Tarbijatingimuste ja privaatsuspoliitika uuendused

·5 min lugemist·Anthropic·Algallikas
Jaga
Anthropic Claude'i tarbijatingimuste ja privaatsuspoliitika uuenduse teavitusekraan

title: "Anthropic Claude: Tarbijatingimuste ja privaatsuspoliitika uuendused" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "et" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI mudelid" keywords:

  • Anthropic
  • Claude AI
  • Tarbijatingimused
  • Privaatsuspoliitika
  • Andmekasutus
  • Mudelite treenimine
  • Tehisintellekti ohutus
  • Andmete säilitamine
  • Kasutaja eelistused
  • Tehisintellekti arendus
  • LLM poliitika
  • Läbipaistvus meta_description: "Anthropic teatab Claude'i tarbijatingimuste ja privaatsuspoliitika olulistest uuendustest, pakkudes kasutajatele kontrolli andmekasutuse üle mudeli täiustamiseks ja pikendades andmete säilitamist ohutuse ja arenduse jaoks." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude'i tarbijatingimuste ja privaatsuspoliitika uuenduse teavitusekraan" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Millised on Anthropicu uuendatud tarbijatingimuste ja privaatsuspoliitika põhilised muudatused Claude'i kasutajatele?" answer: "Anthropic võtab kasutusele olulised uuendused oma tarbijatingimustes ja privaatsuspoliitikas, mis keskenduvad peamiselt kasutajatele võimaluse andmisele lubada oma andmete kasutamist Claude'i AI mudelite täiustamiseks. Kui see seade on lubatud, siis tasuta, Pro ja Max kontode, sealhulgas Claude Code'i sessioonide andmed aitavad kaasa uute mudelite treenimisele. Selle eesmärk on parandada mudeli ohutust, täpsust ja võimekust valdkondades nagu kodeerimine, analüüs ja arutluskäik. Lisaks, kasutajatele, kes nõustuvad andmete kasutamisega, pikendatakse andmete säilitamise perioodi viie aastani. Vastupidi, kui kasutajad otsustavad mudeli treenimiseks mitte nõustuda, jääb kehtima olemasolev 30-päevane andmete säilitamise poliitika. Need muudatused ei mõjuta spetsiaalsete ettevõttelepingutega ärikasutajaid ega API kasutust, tagades erinevatele kasutajasegmentidele erinevad poliitikad."
  • question: "Milliseid Claude'i teenuseid ja kasutajatüüpe need uued poliitikauuendused mõjutavad ja milliseid mitte?" answer: "Uuendatud tarbijatingimused ja privaatsuspoliitika kehtivad konkreetselt üksikutele kasutajatele Anthropicu Claude Free, Pro ja Max plaanide puhul. See hõlmab juhtumeid, kus kasutajad suhtlevad Claude Code'iga nendele tarbijaplaanidele seotud kontode kaudu. Siiski on oluline mõista, et need uuendused ei laiene teenustele, mis tegutsevad Anthropicu äritingimuste all. See tähendab, et Claude for Work (sh Team ja Enterprise plaanid), Claude for Government, Claude for Education ja kogu API kasutus – olgu see siis otsene või kolmandate osapoolte platvormide kaudu, nagu Amazon Bedrock või Google Cloud'i Vertex AI – on nendest uutest tarbijakesksetest poliitikamuudatustest selgelt välja jäetud. Ärikasutajad ja API integreerijad jätkavad tegutsemist oma olemasolevate lepingute alusel, mis sisaldavad eraldi privaatsus- ja andmekäitlusettekirjutusi."
  • question: "Miks Anthropic neid muudatusi teeb, eriti seoses andmekasutusega mudelite treenimiseks ja pikendatud säilitamiseks?" answer: "Anthropic väidab, et need muudatused on tingitud põhivajadusest pidevalt parandada suurte keelemudelite nagu Claude võimekust, ohutust ja kasulikkust. Reaalse maailma interaktsioonid annavad hindamatuid andmesignaale, mis aitavad mudelitel õppida, millised vastused on kõige abivalmimad, täpsemad ja ohutumad. Näiteks pakuvad arendajad, kes siluvad koodi Claude'iga, olulist teavet tulevaste kodeerimisvõimaluste parandamiseks. Pikendatud viieaastane andmete säilitamine, eelkõige kasutajatele, kes on sellega nõustunud, on loodud toetama AI pikki arendustsükleid, tagades andmete järjepidevuse stabiilsemate mudeliversioonide jaoks ja suurendades sisemiste klassifikaatorite efektiivsust, mis tuvastavad ja leevendavad kahjulikke kasutusmustreid, nagu kuritarvitamine või rämpspost pikema aja jooksul, muutes Claude'i lõpuks kõigile ohutumaks."
  • question: "Milliseid samme peavad olemasolevad ja uued Claude'i kasutajad tegema seoses nende poliitikauuenduste ja oma andmeeelistustega?" answer: "Olemasolevad Claude'i kasutajad saavad rakendusesisese teavituse, mis palub neil uuendused üle vaadata ja teha otsuse selle kohta, kas lubada oma vestluste ja kodeerimissessioonide kasutamist mudeli täiustamiseks. Kasutajatel on valiku tegemiseks aega kuni 8. oktoobrini 2025. Kui nad otsustavad varem nõustuda, kehtivad uued poliitikad koheselt uutele või jätkatud vestlustele. Pärast tähtaega on valiku tegemine kohustuslik, et Claude'i edasi kasutada. Uutele kasutajatele esitatakse see valik osana esmasest registreerimisprotsessist. Olenemata sellest, kas tegemist on uue või olemasoleva kasutajaga, saab eelistusi igal ajal muuta Claude'i liidese spetsiaalsete privaatsusseadete kaudu, pakkudes pidevat kontrolli isikuandmete kasutamise üle ja tagades läbipaistvuse."
  • question: "Mis juhtub, kui kasutaja algselt lubab andmeid mudeli treenimiseks, kuid hiljem otsustab ümber mõelda ja loobuda?" answer: "Anthropic rõhutab, et kasutajatel on täielik kontroll oma andmeeelistuste üle ja nad saavad oma valikut igal ajal privaatsusseadete kaudu uuendada. Kui kasutaja algselt nõustub mudeli treenimisega ja otsustab hiljem selle seade välja lülitada, siis uusi vestlusi ja kodeerimissessioone Claude'iga enam tulevaste mudeli treeninguteks ei kasutata. Siiski on oluline märkida, et juba lõpetatud mudeli treeningute ja juba välja antud mudelite andmed võivad endiselt sisaldada andmeid nende varasematest interaktsioonidest. Sellegipoolest kohustub Anthropic peatama varem salvestatud vestluste ja kodeerimissessioonide kasutamise kõigis tulevastes mudeli treeningutes, kui loobumiseelistus on registreeritud, austades seeläbi kasutaja uuendatud valikut andmete pideva kasutamise ja privaatsuse osas."
  • question: "Kuidas Anthropic tagab nende uute poliitikatega kasutaja privaatsuse ja andmekaitse, eriti pikendatud säilitamise korral?" answer: "Kasutaja privaatsuse kaitsmiseks kasutab Anthropic kombinatsiooni täiustatud tööriistadest ja automatiseeritud protsessidest, mis on loodud tundlike andmete filtreerimiseks või varjamiseks enne nende kasutamist mudelite treenimiseks, isegi pikendatud säilitusperioodi korral nende kasutajate puhul, kes on sellega nõustunud. Ettevõte rõhutab selgelt, et ta ei müü kasutajaandmeid kolmandatele osapooltele, kinnitades oma pühendumust privaatsusele. Lisaks säilitavad kasutajad kontrolli: vestluse kustutamine tagab, et seda ei kasutata tulevaseks mudeli treenimiseks, ja valiku muutmine takistab uute vestluste kasutamist. Nende meetmete eesmärk on tasakaalustada andmepõhise mudeli täiustamise vajadust rangete privaatsuskaitsetega, tagades kasutajate usalduse ja andmete turvalisuse kogu tehisintellekti arendustsükli vältel. See terviklik lähenemine rõhutab Anthropicu pühendumust vastutustundlikele tehisintellekti tavadele."

# Anthropic võtab kasutusele Claude'i tarbijatingimuste ja privaatsuspoliitika olulised uuendused

Anthropic, juhtiv tehisintellekti uurimisettevõte, on teatanud olulistest uuendustest oma tarbijatingimustesse ja privaatsuspoliitikasse oma Claude AI mudelite kasutajatele. Need muudatused, mis jõustuvad 28. augustil 2025, on loodud andma kasutajatele suuremat kontrolli oma andmete üle, võimaldades samal ajal Anthropicul arendada võimekamaid ja ohutumaid tehisintellekti süsteeme. Nende uuenduste tuumaks on mudeli treenimiseks andmekasutuse valikumehhanism (opt-in) ja pikendatud andmete säilitamise periood neile, kes osalevad.

See samm peegeldab kasvavat tööstusharu suundumust suurema läbipaistvuse ja kasutaja tegutsemisvabaduse poole tehisintellekti arendamisel. Lubades kasutajatel aktiivselt valida, kas nende interaktsioonid panustavad Claude'i õppimisse, soovib Anthropic edendada koostöökeskkonda, mis toob kasu nii üksikutele kasutajatele kui ka laiemale AI ökosüsteemile. See tarbijatele suunatud poliitikate strateegiline areng rõhutab ettevõtte pühendumust vastutustundlikule AI arendusele ja kasutajate usaldusele.

## Claude'i täiustamine kasutajapõhiste teadmiste ja kaitsemeetmetega

Anthropicu uuendatud poliitika peamine muudatus on kasutaja valikuvõimaluse kehtestamine andmete kasutamise osas mudeli täiustamiseks. Claude'i tasuta, Pro ja Max plaanide kasutajad, sealhulgas need, kes kasutavad Claude Code'i seotud kontode kaudu, saavad nüüd võimaluse lubada oma andmete panustamist tulevaste Claude'i mudelite treenimisse. See osalemine on positsioneeritud kui oluline samm tugevama ja intelligentsema AI loomise suunas.

Selle andmekasutusega nõustumine pakub mitmeid otseseid eeliseid. Anthropicu kohaselt pakuvad kasutajate interaktsioonid väärtuslikku reaalse maailma teavet, mis aitab täiustada mudeli ohutusprotokolle, muutes kahjuliku sisu tuvastamise süsteemid täpsemaks ja vähem kalduvaks süütute vestluste märkimisele. Lisaks ohutusele peaksid kasutajaandmed oluliselt parandama Claude'i põhivõimeid, nagu kodeerimisoskus, analüütiline mõtlemine ja keeruliste probleemide lahendamise oskused. See tagasiside silmus on suurte keelemudelite pidevaks arenguks hädavajalik, viies kõigile rafineeritumate ja kasulikumate AI tööriistadeni.

Oluline on märkida nende uuenduste konkreetset ulatust. Kuigi need kehtivad tarbija taseme kontodele, **ei laiene** need poliitikamuudatused selgesõnaliselt teenustele, mida reguleerivad Anthropicu äritingimused. See hõlmab Claude for Work, Claude for Government, Claude for Education ja kogu API kasutust, olgu see siis otsene või kolmandate osapoolte platvormide kaudu, nagu Amazon Bedrock või Google Cloud'i Vertex AI. See eristus tagab, et ärikliendid ja ettevõtte taseme partnerid säilitavad oma olemasolevad, sageli eritellimusel koostatud andmelepingud ja privaatsusraamistikud. Kasutajatele, kes kasutavad teenuseid nagu [Amazon Bedrock AgentCore](/et/amazon-bedrock-agentcore), jäävad kehtima eraldi lepingud.

## Valikute tegemine: nõustumine ja tähtajad

Anthropic on pühendunud pakkuma kasutajatele selget kontrolli oma andmete üle. Nii uued kui ka olemasolevad Claude'i kasutajad puutuvad kokku erinevate protsessidega andmete jagamise valikute tegemisel. Claude'iga liituvad uued kasutajad leiavad mudeli treenimise eelistuse valiku osana sissejuhatusprotsessist, mis võimaldab neil oma privaatsusseadeid algusest peale määratleda.

Olemasolevatele kasutajatele on Anthropic käivitanud rakendusesiseste teavituste järkjärgulise levitamise. Need hüpikaknad paluvad kasutajatel üle vaadata uuendatud tarbijatingimused ja privaatsuspoliitika ning otsustada, kas lubada oma andmete kasutamist mudeli täiustamiseks. Kasutajatel on aega kuni **8. oktoobrini 2025** oma valiku tegemiseks. Kui olemasolev kasutaja otsustab uued poliitikad vastu võtta ja nõustuda enne seda tähtaega, jõustuvad need muudatused kohe kõigi uute või jätkatud vestluste ja kodeerimissessioonide puhul. On ülioluline, et kasutajad teeksid valiku määratud kuupäevaks, sest Claude'i edasine kasutamine pärast 8. oktoobrit 2025 eeldab mudeli treenimise seade valimist. See tagab, et kasutajad on aktiivselt kaasatud oma privaatsusmaastiku kujundamisse.

Oluline on see, et kasutajate kontroll ei ole ühekordne otsus. Anthropic rõhutab, et eelistusi saab igal ajal kohandada Claude'i liidese spetsiaalses privaatsusseadete jaotises. See paindlikkus rõhutab ettevõtte pühendumust kasutajate pidevale autonoomiale oma isikuandmete osas.

## Poliitika võrdlus: andmekasutus ja säilitamine

Nende uuenduste mõju selgitamiseks võtab järgmine tabel kokku peamised erinevused andmete kasutamise heakskiitmise ja sellest loobumise vahel mudeli treenimiseks uute tarbijatingimuste kohaselt:

| Funktsioon                      | Mudeli treenimisega nõustumine (uus poliitika)                             | Loobumine (olemasolev/vaikepoliitika)                                |
| :------------------------------ | :------------------------------------------------------------------------- | :------------------------------------------------------------------- |
| **Andmekasutus**                | Uued/jätkatud vestlused ja kodeerimissessioonid, mida kasutatakse mudeli täiustamiseks ja ohutuseks. | Uusi/jätkatud vestlusi ja kodeerimissessioone **ei** kasutata mudeli treenimiseks. |
| **Andmete säilitamise periood** | 5 aastat nõustutud andmete puhul.                                          | 30 päeva kõigi andmete puhul.                                        |
| **Kehtib**                      | Claude Free, Pro, Max kontodele ja Claude Code'i sessioonidele.            | Claude Free, Pro, Max kontodele ja Claude Code'i sessioonidele.      |
| **Väljaarvamised**              | Äritingimused, API, Amazon Bedrock, Google Vertex AI teenused.              | Samad väljaarvamised.                                                |

## Strateegiline andmete säilitamine pikaajaliseks AI arenduseks

Lisaks mudeli treenimisega nõustumisele võtab Anthropic kasutusele ka pikendatud andmete säilitamise perioodi kasutajatele, kes otsustavad osaleda. Kui kasutaja otsustab lubada oma andmete kasutamist mudeli täiustamiseks, pikendatakse uute või jätkatud vestluste ja kodeerimissessioonide säilitamise perioodi viie aastani. Kasutajatele, kes ei nõustu andmete kasutamisega, kehtib edasi olemasolev 30-päevane andmete säilitamise periood. See pikendatud säilitamine hõlmab ka tagasisidet, mis on esitatud Claude'i vastuste kohta.

Viieaastase säilitusperioodi põhjendus on sügavalt juurdunud arenenud tehisintellekti arenduse tegelikkusesse. Suurte keelemudelite arendustsükkel kestab sageli 18–24 kuud enne väljalaset. Andmete järjepidevuse säilitamine pikema aja jooksul on stabiilsemate ja prognoositavamate mudelite loomiseks elutähtis. Järjepidevad andmed võimaldavad mudeleid treenida ja täiustada sarnastel viisidel, mis toob kaasa sujuvamad üleminekud ja uuendused kasutajatele.

Lisaks aitab pikendatud säilitamine oluliselt kaasa Anthropicu sisemiste klassifikaatorite – keerukate süsteemide, mida kasutatakse väärkasutuse, kuritarvitamise, rämpsposti ja muude kahjulike mustrite tuvastamiseks ja tõkestamiseks – parandamisele. Need ohutusmehhanismid muutuvad tõhusamaks, õppides pikema aja jooksul kogutud andmetest, suurendades Claude'i võimet jääda kõigile ohutuks ja kasulikuks tööriistaks. Anthropic on pühendunud ka laiematele AI ohutuse aruteludele, nagu rõhutavad algatused nagu [The Anthropic Institute](/et/the-anthropic-institute).

Kasutaja privaatsuse kaitsmiseks kasutab Anthropic kombinatsiooni täiustatud tööriistadest ja automatiseeritud protsessidest, et filtreerida või varjata tundlikke andmeid enne nende kasutamist mudelite treenimiseks või analüüsiks. Ettevõte rõhutab tungivalt, et ta ei müü kasutajaandmeid kolmandatele osapooltele, kinnitades oma pühendumust privaatsusele isegi pikendatud säilitamise korral nõustutud andmete puhul. Kasutajad säilitavad kontrolli oma andmete üle isegi pärast nõustumist; konkreetse vestluse kustutamine tagab, et seda ei kasutata tulevaseks mudeli treenimiseks.

## Kasutajate volitamine ja andmete haldamine

Anthropicu uuendatud tarbijatingimused ja privaatsuspoliitika rõhutavad kasutajakeskset lähenemist AI arendusele. Andes valiku mudeli täiustamisse panustamiseks otse kasutaja kätte, püüab ettevõte edendada läbipaistvamat ja koostööle orienteeritud suhet. Võimalus neid eelistusi igal ajal muuta tagab, et kasutajad säilitavad pideva kontrolli oma andmete üle.

Kui kasutaja algselt nõustub mudeli treenimisega, kuid hiljem otsustab ümber mõelda ja loobuda, on Anthropicul selge poliitika. Kuigi varem lõpetatud mudeli treeningutes ja juba väljastatud mudelites kasutatud andmed võivad nendes versioonides endiselt eksisteerida, siis kõiki *uusi* vestlusi ja kodeerimissessioone pärast loobumisotsust tulevaseks treenimiseks ei kasutata. Ettevõte kohustub lõpetama varem salvestatud vestluste ja kodeerimissessioonide kasutamise kõigis *tulevastes* mudeli treeningutes, kui eelistus on uuendatud. See pakub kasutajatele usaldusväärse mehhanismi oma privaatsusseadete dünaamiliseks haldamiseks.

Need uuendused kujutavad endast kaalutletud sammu andmepõhise AI innovatsiooni tohutu potentsiaali tasakaalustamiseks kasutaja privaatsuse ja läbipaistvuse ülima tähtsusega. Kuna AI mudelid integreeruvad järjest enam igapäevaellu, on sellised poliitikad usalduse loomiseks ja eetilise arenduse tagamiseks üliolulised.

Korduma kippuvad küsimused

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Püsige kursis

Saage värskeimad AI uudised oma postkasti.

Jaga