Code Velocity
Mga Modelo ng AI

Anthropic Claude: Mga Update sa Consumer Terms at Privacy Policy

·5 min basahin·Anthropic·Orihinal na pinagmulan
I-share
Screen ng abiso para sa Update sa Consumer Terms at Privacy Policy ng Anthropic Claude

Inilalabas ng Anthropic ang Mahahalagang Update sa Consumer Terms at Privacy Policy ng Claude

Ang Anthropic, isang nangungunang kumpanya ng pananaliksik sa AI, ay nag-anunsyo ng mahahalagang update sa kanilang Consumer Terms at Privacy Policy para sa mga user ng kanilang mga modelo ng Claude AI. Ang mga pagbabagong ito, na epektibo sa Agosto 28, 2025, ay idinisenyo upang bigyan ng higit na kontrol ang mga user sa kanilang data habang sabay na nagbibigay-daan sa Anthropic na makabuo ng mas may kakayahan at mas ligtas na mga sistema ng AI. Ang pangunahing punto ng mga update na ito ay nakasentro sa isang mekanismo ng opt-in para sa paggamit ng data sa pagsasanay ng modelo at isang pinalawig na panahon ng pagpapanatili ng data para sa mga lalahok.

Ang hakbang na ito ay sumasalamin sa lumalagong trend sa industriya tungo sa mas malaking transparansiya at awtonomiya ng user sa pagbuo ng artificial intelligence. Sa pamamagitan ng pagpapahintulot sa mga user na aktibong pumili kung ang kanilang mga interaksyon ay mag-aambag sa pag-aaral ni Claude, layunin ng Anthropic na itaguyod ang isang collaborative na kapaligiran na nakikinabang sa parehong indibidwal na user at sa mas malawak na ekosistema ng AI. Ang estratehikong ebolusyon na ito ng mga patakaran na nakatuon sa consumer ay nagbibigay-diin sa pangako ng kumpanya sa responsableng pagbuo ng AI at tiwala ng user.

Pagpapahusay sa Claude gamit ang User-Driven na Pananaw at Proteksyon

Ang pangunahing pagbabago sa updated na patakaran ng Anthropic ay ang pagpapakilala ng pagpipilian ng user tungkol sa paggamit ng data para sa pagpapabuti ng modelo. Ang mga user sa mga plano ng Claude na Free, Pro, at Max, kasama ang mga gumagamit ng Claude Code mula sa mga nauugnay na account, ay magkakaroon na ngayon ng opsyon na payagan ang kanilang data na mag-ambag sa pagsasanay ng mga susunod na modelo ng Claude. Ang paglahok na ito ay ipinoposisyon bilang isang mahalagang hakbang tungo sa pagbuo ng mas matatag at matalinong AI.

Ang pag-opt-in sa paggamit ng data na ito ay nag-aalok ng ilang direktang benepisyo. Ayon sa Anthropic, ang mga interaksyon ng user ay nagbibigay ng mahalagang pananaw sa totoong mundo na tumutulong sa pagpipino ng mga protocol ng kaligtasan ng modelo, na ginagawang mas tumpak ang mga sistema para sa pagtuklas ng mapaminsalang nilalaman at hindi gaanong madaling mag-flag ng mga inosenteng pag-uusap. Higit pa sa kaligtasan, ang data ng user ay inaasahang makakapagpabuti nang malaki sa mga pangunahing kakayahan ni Claude, tulad ng kahusayan sa coding, analytical reasoning, at mga kasanayan sa paglutas ng kumplikadong problema. Ang feedback loop na ito ay mahalaga para sa patuloy na ebolusyon ng mga malalaking modelo ng wika, na humahantong sa mas pino at kapaki-pakinabang na mga tool ng AI para sa lahat.

Mahalagang tandaan ang partikular na saklaw ng mga update na ito. Habang nalalapat sa mga account ng consumer-tier, ang mga pagbabagong ito sa patakaran ay hayagang hindi umaabot sa mga serbisyong pinamamahalaan ng Commercial Terms ng Anthropic. Kabilang dito ang Claude for Work, Claude for Government, Claude for Education, at lahat ng paggamit ng API, direkta man o sa pamamagitan ng mga third-party platform tulad ng Amazon Bedrock o Google Cloud’s Vertex AI. Tinitiyak ng pagkakaiba na ito na ang mga commercial client at enterprise-level partner ay pinapanatili ang kanilang kasalukuyang, madalas na bespoke, na mga kasunduan sa data at mga balangkas ng privacy. Para sa mga user na gumagamit ng mga serbisyo tulad ng Amazon Bedrock AgentCore, mananatili ang hiwalay na mga kasunduan.

Pagpili ng Iyong Opsyon: Opt-in at Mga Deadline

Nakatuon ang Anthropic sa pagbibigay sa mga user ng malinaw na kontrol sa kanilang data. Ang parehong bago at kasalukuyang user ng Claude ay makakaranas ng magkakaibang proseso para sa paggawa ng kanilang mga pagpipilian sa pagbabahagi ng data. Makikita ng mga bagong user na nag-signup para sa Claude ang opsyon na piliin ang kanilang kagustuhan para sa pagsasanay ng modelo bilang isang mahalagang bahagi ng proseso ng onboarding, na nagpapahintulot sa kanila na tukuyin ang kanilang mga setting ng privacy mula sa simula.

Para sa mga kasalukuyang user, sinimulan ng Anthropic ang isang phased rollout ng mga in-app na abiso. Ang mga pop-up window na ito ay mag-uudyok sa mga user na suriin ang updated na Consumer Terms at Privacy Policy at magpasya kung papayagan bang gamitin ang kanilang data para sa pagpapabuti ng modelo. Mayroon ang mga user ng grace period hanggang Oktubre 8, 2025, upang gawin ang kanilang pagpipilian. Kung pipiliin ng isang kasalukuyang user na tanggapin ang mga bagong patakaran at mag-opt-in bago ang deadline na ito, agad na magkakabisa ang mga pagbabagong ito para sa lahat ng bago o ipinagpatuloy na chat at coding session. Mahalaga para sa mga user na gumawa ng pagpipilian sa tinukoy na petsa, dahil ang patuloy na paggamit ng Claude pagkatapos ng Oktubre 8, 2025, ay mangangailangan ng pagpili sa setting ng pagsasanay ng modelo. Tinitiyak nito na ang mga user ay aktibong kasangkot sa paghubog ng kanilang privacy landscape.

Mahalaga, ang kontrol ng user ay hindi isang besesang desisyon. Binibigyang-diin ng Anthropic na maaaring ayusin ang mga kagustuhan anumang oras sa pamamagitan ng nakalaang Privacy Settings section sa loob ng interface ng Claude. Ang flexibility na ito ay nagbibigay-diin sa pangako ng kumpanya sa patuloy na awtonomiya ng user tungkol sa kanilang personal na data.

Paghahambing ng Patakaran: Paggamit at Pagpapanatili ng Data

Upang linawin ang epekto ng mga update na ito, ibinubuod ng sumusunod na talahanayan ang mga pangunahing pagkakaiba sa pagitan ng pag-opt-in at pag-opt-out sa paggamit ng data para sa pagsasanay ng modelo sa ilalim ng bagong Consumer Terms:

KatangianOpt-in para sa Pagsasanay ng Modelo (Bagong Patakaran)Opt-out (Kasalukuyan/Default na Patakaran)
Paggamit ng DataMga bago/ipinagpatuloy na chat at coding session na ginagamit para sa pagpapabuti ng modelo at kaligtasan.Ang mga bago/ipinagpatuloy na chat at coding session ay hindi ginagamit para sa pagsasanay ng modelo.
Panahon ng Pagpapanatili ng Data5 taon para sa data na nag-opt-in.30 araw para sa lahat ng data.
Nalalapat saMga account ng Claude Free, Pro, Max at mga Claude Code session.Mga account ng Claude Free, Pro, Max at mga Claude Code session.
Mga PagbubukodCommercial Terms, API, Amazon Bedrock, mga serbisyo ng Google Vertex AI.Parehong mga pagbubukod.

Estratehikong Pagpapanatili ng Data para sa Pangmatagalang Pagbuo ng AI

Kasama ng opt-in para sa pagsasanay ng modelo, nagpapakilala rin ang Anthropic ng pinalawig na panahon ng pagpapanatili ng data para sa mga user na pipiliing lumahok. Kung pipiliin ng isang user na payagan ang kanilang data para sa pagpapabuti ng modelo, ang panahon ng pagpapanatili para sa mga bago o ipinagpatuloy na chat at coding session ay palalawigin sa limang taon. Para sa mga user na hindi nag-opt-in, patuloy na mailalapat ang kasalukuyang 30-araw na panahon ng pagpapanatili ng data. Sakop din ng pinalawig na pagpapanatili na ito ang feedback na isinumite tungkol sa mga tugon ni Claude sa mga prompt.

Ang pangangatuwiran sa likod ng limang-taong panahon ng pagpapanatili ay malalim na nakaugat sa mga realidad ng advanced na pagbuo ng AI. Ang mga malalaking modelo ng wika ay sumasailalim sa mga siklo ng pagbuo na madalas ay umaabot ng 18 hanggang 24 na buwan bago ilabas. Mahalaga ang pagpapanatili ng pagkakapare-pareho ng data sa mas mahabang panahon para sa paglikha ng mas matatag at mahuhulaan na mga modelo. Ang magkakaparehong data ay nagpapahintulot sa mga modelo na sanayin at pinuhin sa magkatulad na paraan, na humahantong sa mas maayos na paglilipat at pag-upgrade para sa mga user.

Bukod pa rito, ang pinalawig na pagpapanatili ay lubos na nakakatulong sa pagpapabuti ng mga internal classifier ng Anthropic—ang mga sopistikadong sistema na ginagamit upang tukuyin at kontrahin ang maling paggamit, pang-aabuso, spam, at iba pang mapaminsalang pattern. Nagiging mas epektibo ang mga mekanismo ng kaligtasan na ito sa pamamagitan ng pag-aaral mula sa data na nakolekta sa pinalawig na tagal, na nagpapahusay sa kakayahan ni Claude na manatiling ligtas at kapaki-pakinabang na tool para sa lahat. Nakatuon din ang Anthropic sa mas malawak na talakayan sa kaligtasan ng AI, tulad ng idinidiin ng mga inisyatiba tulad ng The Anthropic Institute.

Upang protektahan ang privacy ng user, gumagamit ang Anthropic ng kombinasyon ng mga advanced na tool at automated na proseso upang salain o itago ang sensitibong data bago ito gamitin para sa anumang pagsasanay o pagsusuri ng modelo. Mariing sinasabi ng kumpanya na hindi nito ibinebenta ang data ng user sa mga third party, na nagpapatibay sa pangako nito sa privacy kahit na sa pinalawig na pagpapanatili para sa data na nag-opt-in. Nanatili sa mga user ang kontrol sa kanilang data kahit pagkatapos mag-opt-in; tinitiyak ng pagbura ng isang partikular na pag-uusap na hindi ito gagamitin para sa hinaharap na pagsasanay ng modelo.

Pagbibigay Kapangyarihan sa User at Pamamahala ng Data

Binibigyang-diin ng updated na Consumer Terms at Privacy Policy ng Anthropic ang isang user-centric na diskarte sa pagbuo ng AI. Sa pamamagitan ng paglalagay ng pagpipilian na mag-ambag sa pagpapabuti ng modelo nang direkta sa kamay ng user, layunin ng kumpanya na itaguyod ang isang mas transparent at collaborative na relasyon. Tinitiyak ng kakayahang baguhin ang mga kagustuhan na ito anumang oras na mapanatili ng mga user ang patuloy na kontrol sa paglalakbay ng kanilang data.

Kung ang isang user ay unang nag-opt-in para sa pagsasanay ng modelo ngunit nagpasya kalaunan na magbago ng isip at mag-opt-out, may malinaw na patakaran ang Anthropic. Bagama't ang data na ginamit sa mga nakaraang natapos na pagsasanay ng modelo at mga modelong nailabas na ay maaari pa ring umiral sa loob ng mga bersyong iyon, anumang bagong chat at coding session pagkatapos ng desisyon ng pag-opt-out ay hindi gagamitin para sa hinaharap na pagsasanay. Nangako ang kumpanya na ititigil ang paggamit ng mga naunang naka-imbak na chat at coding session sa anumang hinaharap na pag-ulit ng pagsasanay ng modelo kapag na-update ang kagustuhan. Nag-aalok ito ng isang matatag na mekanismo para sa mga user upang dinamikong pamahalaan ang kanilang mga setting ng privacy.

Ang mga update na ito ay kumakatawan sa isang sinukat na hakbang tungo sa pagbabalanse ng napakalaking potensyal ng AI innovation na batay sa data na may pangunahing kahalagahan ng privacy ng user at transparansiya. Habang ang mga modelo ng AI ay nagiging mas integrated sa pang-araw-araw na buhay, ang mga patakaran na tulad nito ay mahalaga para sa pagbuo ng tiwala at pagtiyak ng etikal na pag-unlad.

Mga Karaniwang Tanong

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share