Code Velocity
AI modeļi

Anthropic Claude: Lietotāja noteikumu un privātuma politikas atjauninājumi

·5 min lasīšana·Anthropic·Sākotnējais avots
Dalīties
Anthropic Claude lietotāja noteikumu un privātuma politikas atjauninājuma paziņojuma ekrāns

Anthropic ievieš būtiskus atjauninājumus Claude lietotāja noteikumos un privātuma politikā

Anthropic, vadošais AI pētniecības uzņēmums, ir paziņojis par būtiskiem atjauninājumiem savos lietotāja noteikumos un privātuma politikā tā Claude AI modeļu lietotājiem. Šīs izmaiņas, kas stājas spēkā 2025. gada 28. augustā, ir paredzētas, lai lietotājiem nodrošinātu lielāku kontroli pār saviem datiem, vienlaikus ļaujot Anthropic izstrādāt jaudīgākas un drošākas AI sistēmas. Šo atjauninājumu pamatā ir piekrišanas mehānisms datu izmantošanai modeļu apmācībā un pagarināts datu glabāšanas periods tiem, kas piedalās.

Šis solis atspoguļo pieaugošo nozares tendenci uz lielāku caurspīdīgumu un lietotāju pašnoteikšanos mākslīgā intelekta attīstībā. Ļaujot lietotājiem aktīvi izvēlēties, vai viņu mijiedarbība veicina Claude mācīšanos, Anthropic mērķis ir veicināt sadarbības vidi, kas nāk par labu gan individuālajiem lietotājiem, gan plašākai AI ekosistēmai. Šī patērētājiem paredzēto politiku stratēģiskā attīstība uzsver uzņēmuma apņemšanos ievērot atbildīgu AI attīstību un lietotāju uzticību.

Claude uzlabošana, izmantojot lietotāju datus un aizsardzības pasākumus

Galvenā izmaiņa Anthropic atjauninātajā politikā ir lietotāja izvēles ieviešana attiecībā uz datu izmantošanu modeļu uzlabošanai. Lietotājiem Claude bezmaksas, Pro un Max plānos, tostarp tiem, kas izmanto Claude Code no saistītiem kontiem, tagad būs iespēja atļaut saviem datiem veicināt turpmāko Claude modeļu apmācību. Šī līdzdalība tiek uzskatīta par būtisku soli ceļā uz spēcīgākas un inteliģentākas AI veidošanu.

Piekrišana šai datu izmantošanai piedāvā vairākas tiešas priekšrocības. Saskaņā ar Anthropic teikto, lietotāju mijiedarbība sniedz vērtīgu reālās pasaules ieskatu, kas palīdz uzlabot modeļu drošības protokolus, padarot kaitīga satura noteikšanas sistēmas precīzākas un mazāk pakļautas nevainīgu sarunu atzīmēšanai. Papildus drošībai paredzams, ka lietotāju dati ievērojami uzlabos Claude pamatspējas, piemēram, kodēšanas prasmes, analītisko spriešanu un sarežģītu problēmu risināšanas spējas. Šī atgriezeniskās saites cilpa ir būtiska lielo valodu modeļu nepārtrauktai attīstībai, kas noved pie precīzākiem un noderīgākiem AI rīkiem visiem.

Ir svarīgi atzīmēt šo atjauninājumu specifisko darbības jomu. Lai gan tie attiecas uz patērētāju līmeņa kontiem, šīs politikas izmaiņas neattiecas uz pakalpojumiem, ko regulē Anthropic komerciālie noteikumi. Tas ietver Claude for Work, Claude for Government, Claude for Education un visu API izmantošanu, gan tieši, gan ar trešo pušu platformu, piemēram, Amazon Bedrock vai Google Cloud Vertex AI, starpniecību. Šī atšķirība nodrošina, ka komerciālie klienti un uzņēmuma līmeņa partneri saglabā savus esošos, bieži vien individuālos, datu līgumus un privātuma sistēmas. Lietotājiem, kas izmanto tādus pakalpojumus kā Amazon Bedrock AgentCore, spēkā paliek atsevišķi līgumi.

Kā orientēties izvēlē: piekrišana un termiņi

Anthropic ir apņēmusies nodrošināt lietotājiem skaidru kontroli pār saviem datiem. Gan jauni, gan esošie Claude lietotāji saskarsies ar atšķirīgiem procesiem, lai pieņemtu lēmumus par datu koplietošanu. Jauni lietotāji, reģistrējoties Claude, atradīs iespēju izvēlēties savas preferences modeļu apmācībai kā neatņemamu reģistrēšanās procesa sastāvdaļu, ļaujot viņiem jau no paša sākuma definēt savus privātuma iestatījumus.

Esošajiem lietotājiem Anthropic ir uzsācis pakāpenisku paziņojumu ieviešanu lietotnē. Šie uznirstošie logi aicinās lietotājus pārskatīt atjauninātos lietotāja noteikumus un privātuma politiku un izlemt, vai atļaut savu datu izmantošanu modeļu uzlabošanai. Lietotājiem ir noteikts pārejas periods līdz 2025. gada 8. oktobrim, lai veiktu savu izvēli. Ja esošais lietotājs pirms šī termiņa izvēlas pieņemt jauno politiku un piekrist, šīs izmaiņas stāsies spēkā nekavējoties visām jaunām vai atsāktām tērzēšanas un kodēšanas sesijām. Ir ļoti svarīgi, lai lietotāji izdarītu izvēli līdz norādītajam datumam, jo Claude turpmāka izmantošana pēc 2025. gada 8. oktobra prasīs izvēles veikšanu attiecībā uz modeļa apmācības iestatījumu. Tas nodrošina, ka lietotāji aktīvi piedalās savas privātuma vides veidošanā.

Galvenais ir tas, ka lietotāja kontrole nav vienreizējs lēmums. Anthropic uzsver, ka preferences var jebkurā laikā pielāgot, izmantojot īpašo privātuma iestatījumu sadaļu Claude saskarnē. Šī elastība uzsver uzņēmuma apņemšanos nodrošināt nepārtrauktu lietotāju autonomiju attiecībā uz viņu personīgajiem datiem.

Politikas salīdzinājums: datu izmantošana un glabāšana

Lai precizētu šo atjauninājumu ietekmi, nākamajā tabulā ir apkopotas galvenās atšķirības starp piekrišanu un atteikšanos no datu izmantošanas modeļu apmācībai saskaņā ar jaunajiem lietotāja noteikumiem:

IezīmePiekrišana modeļu apmācībai (jaunā politika)Atteikšanās (esošā/noklusējuma politika)
Datu izmantošanaJaunas/atsāktas tērzēšanas un kodēšanas sesijas tiek izmantotas modeļu uzlabošanai un drošībai.Jaunas/atsāktas tērzēšanas un kodēšanas sesijas netiek izmantotas modeļu apmācībai.
Datu glabāšanas periods5 gadi datiem, kuriem ir dota piekrišana.30 dienas visiem datiem.
Attiecas uzClaude bezmaksas, Pro, Max kontiem un Claude Code sesijām.Claude bezmaksas, Pro, Max kontiem un Claude Code sesijām.
IzņēmumiKomerciālie noteikumi, API, Amazon Bedrock, Google Vertex AI pakalpojumi.Tie paši izņēmumi.

Stratēģiska datu glabāšana ilgtermiņa AI attīstībai

Līdztekus piekrišanai modeļu apmācībai, Anthropic ievieš arī pagarinātu datu glabāšanas periodu lietotājiem, kuri izvēlas piedalīties. Ja lietotājs piekrīt atļaut savus datus modeļu uzlabošanai, jaunu vai atsāktu tērzēšanas un kodēšanas sesiju glabāšanas periods tiks pagarināts līdz pieciem gadiem. Lietotājiem, kuri nepiekrīt, turpināsies esošais 30 dienu datu glabāšanas periods. Šī pagarinātā glabāšana attiecas arī uz atsauksmēm, kas iesniegtas par Claude atbildēm uz aicinājumiem.

Piecu gadu glabāšanas perioda pamatojums ir cieši saistīts ar progresīvas AI attīstības realitāti. Lielo valodu modeļu izstrādes cikli bieži vien ilgst 18 līdz 24 mēnešus pirms izlaišanas. Datu konsekvences saglabāšana ilgākā laika periodā ir būtiska, lai radītu stabilākus un paredzamākus modeļus. Konsekventi dati ļauj modeļus apmācīt un pilnveidot līdzīgos veidos, kas nodrošina vienmērīgāku pāreju un atjauninājumu lietotājiem.

Turklāt pagarinātā glabāšana ievērojami palīdz uzlabot Anthropic iekšējos klasifikatorus — sarežģītās sistēmas, ko izmanto, lai identificētu un novērstu ļaunprātīgu izmantošanu, surogātpastu un citus kaitīgus modeļus. Šie drošības mehānismi kļūst efektīvāki, mācoties no datiem, kas savākti ilgākā laika periodā, uzlabojot Claude spēju saglabāties kā drošs un noderīgs rīks visiem. Anthropic ir apņēmusies veicināt plašākas diskusijas par AI drošību, kā to uzsver tādas iniciatīvas kā The Anthropic Institute.

Lai aizsargātu lietotāju privātumu, Anthropic izmanto uzlabotu rīku un automatizētu procesu kombināciju, lai filtrētu vai aizklātu sensitīvus datus, pirms tie tiek izmantoti jebkādai modeļa apmācībai vai analīzei. Uzņēmums kategoriski paziņo, ka tas nepārdod lietotāju datus trešajām personām, tādējādi stiprinot savu apņemšanos ievērot privātumu pat ar pagarinātu glabāšanu datiem, kuriem ir dota piekrišana. Lietotāji saglabā kontroli pār saviem datiem pat pēc piekrišanas došanas; konkrētas sarunas dzēšana nodrošina, ka tā netiks izmantota turpmākai modeļa apmācībai.

Lietotāju iespēju palielināšana un datu pārvaldība

Anthropic atjauninātie lietotāja noteikumi un privātuma politika uzsver uz lietotāju orientētu pieeju AI attīstībai. Nododot izvēli veicināt modeļu uzlabošanu tieši lietotāja rokās, uzņēmums cenšas veicināt caurspīdīgākas un sadarbīgākas attiecības. Iespēja jebkurā laikā mainīt šīs preferences nodrošina, ka lietotāji saglabā nepārtrauktu kontroli pār savu datu ceļu.

Ja lietotājs sākotnēji piekrīt modeļu apmācībai, bet vēlāk nolemj mainīt savas domas un atteikties, Anthropic ir skaidra politika. Lai gan dati, kas izmantoti iepriekš pabeigtās modeļu apmācībās un jau izlaistos modeļos, joprojām var pastāvēt šajās versijās, visas jaunās tērzēšanas un kodēšanas sesijas pēc atteikšanās lēmuma netiks izmantotas turpmākajās apmācībās. Uzņēmums apņemas pārtraukt iepriekš saglabāto tērzēšanas un kodēšanas sesiju izmantošanu jebkurās turpmākajās modeļu apmācību iterācijās, tiklīdz preference ir atjaunināta. Tas piedāvā stabilu mehānismu lietotājiem dinamiski pārvaldīt savus privātuma iestatījumus.

Šie atjauninājumi ir mērķtiecīgs solis, lai līdzsvarotu datu vadītas AI inovācijas milzīgo potenciālu ar lietotāju privātuma un caurspīdīguma primāro nozīmi. Tā kā AI modeļi arvien vairāk tiek integrēti ikdienas dzīvē, šādas politikas ir būtiskas, lai veidotu uzticību un nodrošinātu ētisku attīstību.

Bieži uzdotie jautājumi

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Esiet informēti

Saņemiet jaunākās AI ziņas savā e-pastā.

Dalīties