Code Velocity
AI modeliai

Anthropic Claude: Vartotojo sąlygų ir privatumo politikos atnaujinimai

·5 min skaitymo·Anthropic·Originalus šaltinis
Dalintis
Anthropic Claude vartotojo sąlygų ir privatumo politikos atnaujinimo pranešimo ekranas

title: "Anthropic Claude: Vartotojo sąlygų ir privatumo politikos atnaujinimai" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "lt" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI modeliai" keywords:

  • Anthropic
  • Claude AI
  • Vartotojo sąlygos
  • Privatumo politika
  • Duomenų naudojimas
  • Modelio apmokymas
  • Dirbtinio intelekto saugumas
  • Duomenų saugojimas
  • Vartotojo nuostatos
  • DI kūrimas
  • LLM politika
  • Skaidrumas meta_description: "Anthropic praneša apie svarbius Claude vartotojo sąlygų ir privatumo politikos atnaujinimus, suteikiančius vartotojams galimybę kontroliuoti duomenų naudojimą modelio tobulinimui ir prailginančius duomenų saugojimą saugumui ir vystymui." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude vartotojo sąlygų ir privatumo politikos atnaujinimo pranešimo ekranas" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Kokie yra pagrindiniai pokyčiai, pristatyti atnaujintose Anthropic vartotojo sąlygose ir privatumo politikoje Claude vartotojams?" answer: "Anthropic pristato reikšmingus vartotojo sąlygų ir privatumo politikos atnaujinimus, daugiausia sutelktus į tai, kad vartotojai galėtų pasirinkti, ar leisti naudoti jų duomenis Claude DI modelių tobulinimui. Įjungus šį nustatymą, duomenys iš nemokamų (Free), profesionalių (Pro) ir maksimalių (Max) paskyrų, įskaitant Claude Code sesijas, prisidės prie naujų modelių mokymo. Taip siekiama pagerinti modelio saugumą, tikslumą ir galimybes tokiose srityse kaip kodavimas, analizė ir samprotavimas. Be to, vartotojams, kurie sutinka, duomenų saugojimo laikotarpis bus pratęstas iki penkerių metų. Priešingai, jei vartotojai pasirinks nesutikti su modelio mokymu, galiojanti 30 dienų duomenų saugojimo politika liks galioti. Šie pakeitimai neturi įtakos komerciniams vartotojams, turintiems konkrečius įmonių susitarimus ar naudojantiems API, užtikrinant skirtingas politikas skirtingiems vartotojų segmentams."
  • question: "Kurioms Claude paslaugoms ir vartotojų tipams taikomi šie nauji politikos atnaujinimai, o kuriems – ne?" answer: "Atnaujintos vartotojo sąlygos ir privatumo politika konkrečiai taikomos individualiems vartotojams, turintiems Anthropic Claude nemokamus (Free), profesionalius (Pro) ir maksimalius (Max) planus. Tai apima atvejus, kai vartotojai sąveikauja su Claude Code per paskyras, susijusias su šiais vartotojų planais. Tačiau labai svarbu suprasti, kad šie atnaujinimai netaikomi paslaugoms, veikiančioms pagal Anthropic komercines sąlygas. Tai reiškia, kad Claude for Work (įskaitant Team ir Enterprise planus), Claude for Government, Claude for Education ir visi API naudojimai – tiek tiesioginiai, tiek per trečiųjų šalių platformas, tokias kaip Amazon Bedrock ar Google Cloud Vertex AI – yra aiškiai neįtraukiami į šiuos naujus, į vartotojus orientuotus politikos pakeitimus. Komerciniai vartotojai ir API integratoriai toliau veiks pagal savo galiojančius susitarimus, kuriuose yra atskiros privatumo ir duomenų tvarkymo nuostatos."
  • question: "Kodėl Anthropic daro šiuos pakeitimus, ypač susijusius su duomenų naudojimu modelio apmokymui ir prailgintu saugojimu?" answer: "Anthropic teigia, kad šie pakeitimai yra nulemti esminio poreikio nuolat tobulinti didelių kalbos modelių, tokių kaip Claude, galimybes, saugumą ir naudingumą. Realaus pasaulio sąveikos suteikia neįkainojamų duomenų signalų, kurie padeda modeliams suprasti, kurie atsakymai yra naudingiausi, tiksliausi ir saugiausi. Pavyzdžiui, kūrėjai, derinantys kodą su Claude, suteikia esminių įžvalgų, kaip pagerinti būsimas kodavimo galimybes. Prailgintas penkerių metų duomenų saugojimas, skirtas vartotojams, kurie sutinka, yra skirtas palaikyti ilgus DI kūrimo ciklus, užtikrinant duomenų nuoseklumą stabilesniems modelio atnaujinimams ir didinant vidinių klasifikatorių, kurie aptinka ir sumažina žalingus naudojimo modelius, tokius kaip piktnaudžiavimas ar šiukšlių siuntimas per ilgesnius laikotarpius, efektyvumą, galiausiai padarant Claude saugesnį visiems. "
  • question: "Kokių veiksmų turi imtis esami ir nauji Claude vartotojai, atsižvelgiant į šiuos politikos atnaujinimus ir jų duomenų nuostatas?" answer: "Esami Claude vartotojai gaus pranešimą programoje, raginantį peržiūrėti atnaujinimus ir nuspręsti, ar leisti jų pokalbius ir kodavimo sesijas naudoti modelio tobulinimui. Vartotojai turi iki 2025 m. spalio 8 d. priimti šį pasirinkimą. Jei jie nuspręs sutikti anksčiau, naujosios politikos nuostatos iš karto bus taikomos naujiems arba atnaujintiems pokalbiams. Po nustatyto termino, norint toliau naudotis Claude, privaloma pasirinkti. Naujiems vartotojams šis pasirinkimas bus pateiktas kaip dalis pradinio registracijos proceso. Nepriklausomai nuo to, ar tai naujas, ar esamas vartotojas, nuostatą galima bet kada pakeisti per specialius privatumo nustatymus Claude sąsajoje, taip užtikrinant nuolatinę asmens duomenų naudojimo kontrolę ir skaidrumą."
  • question: "Kas nutinka, jei vartotojas iš pradžių leidžia duomenis modelio apmokymui, bet vėliau nusprendžia persigalvoti ir atsisakyti?" answer: "Anthropic pabrėžia, kad vartotojai išlaiko visišką savo duomenų nuostatų kontrolę ir gali bet kada atnaujinti savo pasirinkimą per Privatumo nustatymus. Jei vartotojas iš pradžių sutinka su modelio apmokymu, o vėliau nusprendžia išjungti šį nustatymą, jokie nauji pokalbiai ir kodavimo sesijos su Claude nebebus naudojami būsimiems modelio apmokymo procesams. Svarbu pažymėti, kad duomenys iš anksčiau atliktų modelio apmokymo procesų ir jau išleistų modelių vis dar gali turėti duomenų iš jų praeities sąveikų. Nepaisant to, Anthropic įsipareigoja sustabdyti anksčiau saugotų pokalbių ir kodavimo sesijų naudojimą bet kokiems būsimiems modelio apmokymo iteracijoms, kai tik bus užregistruotas atsisakymo pasirinkimas, taip gerbiant atnaujintą vartotojo pasirinkimą dėl nuolatinio duomenų naudojimo ir privatumo."
  • question: "Kaip Anthropic užtikrina vartotojų privatumą ir duomenų apsaugą su šiomis naujomis politikomis, ypač su prailgintu saugojimu?" answer: "Siekiant apsaugoti vartotojų privatumą, Anthropic naudoja pažangių įrankių ir automatizuotų procesų derinį, skirtą filtruoti arba nuslėpti jautrius duomenis prieš juos naudojant modelio apmokymui, net ir esant prailgintam saugojimo laikotarpiui tiems vartotojams, kurie sutiko. Įmonė aiškiai teigia, kad neparduoda vartotojų duomenų trečiosioms šalims, taip sustiprindama savo įsipareigojimą privatumui. Be to, vartotojai išlaiko kontrolę: ištrynus pokalbį užtikrinama, kad jis nebus naudojamas būsimiems modelio apmokymams, o pakeitus sutikimo nustatymą užkertamas kelias naujų pokalbių naudojimui. Šiomis priemonėmis siekiama suderinti poreikį tobulinti modelius duomenimis ir griežtą privatumo apsaugą, užtikrinant vartotojų pasitikėjimą ir duomenų saugumą per visą DI kūrimo ciklą. Šis išsamus požiūris pabrėžia Anthropic atsidavimą atsakingai DI praktikai."

# Anthropic pristato pagrindinius Claude vartotojo sąlygų ir privatumo politikos atnaujinimus

Anthropic, pirmaujanti DI tyrimų įmonė, pranešė apie reikšmingus savo vartotojo sąlygų ir privatumo politikos atnaujinimus Claude DI modelių vartotojams. Šie pakeitimai, įsigaliojantys nuo 2025 m. rugpjūčio 28 d., yra skirti suteikti vartotojams daugiau kontrolės dėl savo duomenų, tuo pat metu leidžiant Anthropic kurti galingesnes ir saugesnes DI sistemas. Šių atnaujinimų esmė – galimybė pasirinkti duomenų naudojimą modelio apmokymui ir prailgintas duomenų saugojimo laikotarpis tiems, kurie dalyvauja.

Šis žingsnis atspindi augančią pramonės tendenciją siekti didesnio skaidrumo ir vartotojų įgalinimo kuriant dirbtinį intelektą. Leidžiant vartotojams aktyviai pasirinkti, ar jų sąveika prisideda prie Claude mokymosi, Anthropic siekia skatinti bendradarbiavimo aplinką, kuri naudinga tiek individualiems vartotojams, tiek platesnei DI ekosistemai. Ši strateginė į vartotoją orientuotų politikų evoliucija pabrėžia įmonės įsipareigojimą atsakingam DI vystymui ir vartotojų pasitikėjimui.

## Claude tobulinimas pasitelkiant vartotojų įžvalgas ir apsaugos priemones

Pagrindinis Anthropic atnaujintos politikos pakeitimas yra vartotojo pasirinkimo galimybė dėl duomenų naudojimo modelio tobulinimui. Vartotojai, naudojantys Claude nemokamus (Free), profesionalius (Pro) ir maksimalius (Max) planus, įskaitant tuos, kurie naudoja Claude Code per susijusias paskyras, dabar turės galimybę leisti, kad jų duomenys prisidėtų prie būsimų Claude modelių apmokymo. Šis dalyvavimas pozicionuojamas kaip esminis žingsnis siekiant sukurti tvirtesnį ir išmanesnį DI.

Sutikus su šiuo duomenų naudojimu, gaunama keletas tiesioginių privalumų. Pasak Anthropic, vartotojų sąveika suteikia vertingų realaus pasaulio įžvalgų, kurios padeda tobulinti modelio saugos protokolus, todėl kenksmingo turinio aptikimo sistemos tampa tikslesnės ir rečiau klaidingai pažymi nekenksmingus pokalbius. Be saugumo, tikimasi, kad vartotojo duomenys žymiai pagerins pagrindines Claude galimybes, tokias kaip kodavimo meistriškumas, analitinis mąstymas ir sudėtingų problemų sprendimo įgūdžiai. Šis grįžtamojo ryšio ciklas yra būtinas nuolatinei didelių kalbos modelių evoliucijai, vedančiai prie rafinuotesnių ir naudingesnių DI įrankių visiems.

Svarbu atkreipti dėmesį į specifinę šių atnaujinimų apimtį. Nors šie politikos pakeitimai taikomi vartotojų lygmens paskyroms, jie aiškiai **netaikomi** paslaugoms, kurioms taikomos Anthropic komercinės sąlygos. Tai apima Claude for Work, Claude for Government, Claude for Education ir visus API naudojimus, tiek tiesiogiai, tiek per trečiųjų šalių platformas, tokias kaip Amazon Bedrock ar Google Cloud Vertex AI. Šis skirtumas užtikrina, kad komerciniai klientai ir įmonių lygmens partneriai išlaikytų savo esamus, dažnai individualius, duomenų susitarimus ir privatumo sistemas. Vartotojams, naudojantiems tokias paslaugas kaip [Amazon Bedrock AgentCore](/lt/amazon-bedrock-agentcore), galioja atskiri susitarimai.

## Jūsų pasirinkimų valdymas: sutikimas ir terminai

Anthropic yra įsipareigojusi suteikti vartotojams aiškią duomenų kontrolę. Tiek nauji, tiek esami Claude vartotojai susidurs su skirtingais procesais, leidžiančiais pasirinkti duomenų bendrinimo būdą. Nauji vartotojai, besiregistruojantys į Claude, ras galimybę pasirinkti modelio apmokymo nuostatą kaip neatsiejamą prisijungimo proceso dalį, leidžiančią jiems apibrėžti savo privatumo nustatymus nuo pat pradžių.

Esamiems vartotojams Anthropic pradėjo laipsnišką pranešimų programoje diegimą. Šie iššokantys langai paragins vartotojus peržiūrėti atnaujintas vartotojo sąlygas ir privatumo politiką bei nuspręsti, ar leisti naudoti jų duomenis modelio tobulinimui. Vartotojai turi pereinamąjį laikotarpį iki **2025 m. spalio 8 d.**, kad priimtų savo pasirinkimą. Jei esamas vartotojas nuspręs priimti naujas politikos nuostatas ir sutikti iki šio termino, šie pakeitimai iš karto įsigalios visiems naujiems arba atnaujintiems pokalbiams ir kodavimo sesijoms. Vartotojams labai svarbu pasirinkti iki nurodytos datos, nes norint toliau naudoti Claude po 2025 m. spalio 8 d., reikės pasirinkti modelio apmokymo nustatymą. Tai užtikrina, kad vartotojai aktyviai dalyvauja formuojant savo privatumo aplinką.

Svarbu pabrėžti, kad vartotojo kontrolė nėra vienkartinis sprendimas. Anthropic pabrėžia, kad nuostatos gali būti koreguojamos bet kuriuo metu per specialią privatumo nustatymų skiltį Claude sąsajoje. Šis lankstumas pabrėžia įmonės įsipareigojimą nuolatinei vartotojo autonomijai dėl asmeninių duomenų.

## Politikos palyginimas: duomenų naudojimas ir saugojimas

Siekdami paaiškinti šių atnaujinimų poveikį, toliau pateiktoje lentelėje apibendrinami pagrindiniai skirtumai tarp sutikimo ir nesutikimo su duomenų naudojimu modelio apmokymui pagal naujas vartotojo sąlygas:

| Funkcija                  | Sutikimas su modelio apmokymu (nauja politika)                            | Atsisakymas (esama/numatytoji politika)                             |
| :------------------------ | :------------------------------------------------------------------------ | :-------------------------------------------------------------------- |
| **Duomenų naudojimas**    | Nauji/atnaujinti pokalbiai ir kodavimo sesijos, naudojamos modelio tobulinimui ir saugumui. | Nauji/atnaujinti pokalbiai ir kodavimo sesijos **nenaudojamos** modelio apmokymui. |
| **Duomenų saugojimo laikotarpis** | 5 metai sutikusiems duomenims.                                           | 30 dienų visiems duomenims.                                           |
| **Taikoma**               | Claude Free, Pro, Max paskyros ir Claude Code sesijos.                    | Claude Free, Pro, Max paskyros ir Claude Code sesijos.                |
| **Išimtys**              | Komercinės sąlygos, API, Amazon Bedrock, Google Vertex AI paslaugos.     | Tos pačios išimtys.                                                   |

## Strateginis duomenų saugojimas ilgalaikiam DI vystymui

Kartu su sutikimu modelio apmokymui, Anthropic taip pat pristato prailgintą duomenų saugojimo laikotarpį vartotojams, kurie pasirenka dalyvauti. Jei vartotojas sutinka leisti naudoti savo duomenis modelio tobulinimui, naujų ar atnaujintų pokalbių ir kodavimo sesijų saugojimo laikotarpis bus pratęstas iki penkerių metų. Vartotojams, kurie nesutinka, toliau bus taikomas esamas 30 dienų duomenų saugojimo laikotarpis. Šis prailgintas saugojimas taip pat apima atsiliepimus, pateiktus apie Claude atsakymus į užklausas.

Penkerių metų saugojimo laikotarpio motyvacija glūdi pažangaus DI vystymo realybėje. Didelių kalbos modelių kūrimo ciklai dažnai trunka nuo 18 iki 24 mėnesių iki išleidimo. Duomenų nuoseklumo palaikymas ilgesnį laiką yra gyvybiškai svarbus kuriant stabilesnius ir nuspėjamesnius modelius. Nuoseklūs duomenys leidžia modelius apmokyti ir tobulinti panašiais būdais, o tai lemia sklandesnius vartotojų perėjimus ir atnaujinimus.

Be to, prailgintas saugojimas žymiai padeda tobulinti Anthropic vidinius klasifikatorius – sudėtingas sistemas, naudojamas piktnaudžiavimui, pažeidimams, šiukšlinimui ir kitiems žalingiems modeliams nustatyti ir neutralizuoti. Šie saugumo mechanizmai tampa efektyvesni, mokydamiesi iš duomenų, surinktų per ilgesnius laikotarpius, taip didinant Claude gebėjimą išlikti saugia ir naudinga priemone visiems. Anthropic taip pat yra įsipareigojusi platesnėms DI saugos diskusijoms, kaip pabrėžiama tokiomis iniciatyvomis kaip [The Anthropic Institute](/lt/the-anthropic-institute).

Siekiant apsaugoti vartotojų privatumą, Anthropic naudoja pažangių įrankių ir automatizuotų procesų derinį, skirtą filtruoti arba nuslėpti jautrius duomenis prieš juos naudojant bet kokiam modelio apmokymui ar analizei. Įmonė kategoriškai teigia, kad neparduoda vartotojų duomenų trečiosioms šalims, taip sustiprindama savo įsipareigojimą privatumui net ir esant prailgintam saugojimo laikotarpiui sutikusiems duomenims. Vartotojai išlaiko savo duomenų kontrolę net ir sutikę; ištrynus konkretų pokalbį užtikrinama, kad jis nebus naudojamas būsimiems modelio apmokymams.

## Vartotojų įgalinimas ir duomenų valdymas

Anthropic atnaujintos vartotojo sąlygos ir privatumo politika pabrėžia į vartotoją orientuotą DI vystymo metodą. Suteikdama pasirinkimą prisidėti prie modelio tobulinimo tiesiogiai vartotojo rankoms, įmonė siekia skatinti skaidresnius ir bendradarbiavimu grindžiamus santykius. Galimybė bet kuriuo metu keisti šias nuostatas užtikrina, kad vartotojai išlaikys nuolatinę kontrolę dėl savo duomenų kelio.

Jei vartotojas iš pradžių sutinka su modelio apmokymu, bet vėliau nusprendžia persigalvoti ir atsisakyti, Anthropic turi aiškią politiką. Nors duomenys, naudojami anksčiau atliktuose modelio apmokymo procesuose ir jau išleistuose modeliuose, vis dar gali egzistuoti tose versijose, jokie *nauji* pokalbiai ir kodavimo sesijos po atsisakymo sprendimo nebus naudojami būsimam apmokymui. Įmonė įsipareigoja nutraukti anksčiau saugotų pokalbių ir kodavimo sesijų naudojimą bet kokioms *būsimoms* modelio apmokymo iteracijoms, kai tik bus atnaujinta nuostata. Tai suteikia tvirtą mechanizmą vartotojams dinamiškai valdyti savo privatumo nustatymus.

Šie atnaujinimai yra pamatuotas žingsnis siekiant suderinti didžiulį duomenimis grindžiamų DI inovacijų potencialą su svarbiausiais vartotojų privatumo ir skaidrumo prioritetais. Kadangi DI modeliai vis labiau integruojami į kasdienį gyvenimą, tokios politikos yra labai svarbios pasitikėjimui kurti ir etiniam vystymui užtikrinti.

Dažniausiai užduodami klausimai

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis