Inilalabas ng Anthropic ang Mahahalagang Update sa Consumer Terms at Privacy Policy ng Claude
Ang Anthropic, isang nangungunang kumpanya ng pananaliksik sa AI, ay nag-anunsyo ng mahahalagang update sa kanilang Consumer Terms at Privacy Policy para sa mga user ng kanilang mga modelo ng Claude AI. Ang mga pagbabagong ito, na epektibo sa Agosto 28, 2025, ay idinisenyo upang bigyan ng higit na kontrol ang mga user sa kanilang data habang sabay na nagbibigay-daan sa Anthropic na makabuo ng mas may kakayahan at mas ligtas na mga sistema ng AI. Ang pangunahing punto ng mga update na ito ay nakasentro sa isang mekanismo ng opt-in para sa paggamit ng data sa pagsasanay ng modelo at isang pinalawig na panahon ng pagpapanatili ng data para sa mga lalahok.
Ang hakbang na ito ay sumasalamin sa lumalagong trend sa industriya tungo sa mas malaking transparansiya at awtonomiya ng user sa pagbuo ng artificial intelligence. Sa pamamagitan ng pagpapahintulot sa mga user na aktibong pumili kung ang kanilang mga interaksyon ay mag-aambag sa pag-aaral ni Claude, layunin ng Anthropic na itaguyod ang isang collaborative na kapaligiran na nakikinabang sa parehong indibidwal na user at sa mas malawak na ekosistema ng AI. Ang estratehikong ebolusyon na ito ng mga patakaran na nakatuon sa consumer ay nagbibigay-diin sa pangako ng kumpanya sa responsableng pagbuo ng AI at tiwala ng user.
Pagpapahusay sa Claude gamit ang User-Driven na Pananaw at Proteksyon
Ang pangunahing pagbabago sa updated na patakaran ng Anthropic ay ang pagpapakilala ng pagpipilian ng user tungkol sa paggamit ng data para sa pagpapabuti ng modelo. Ang mga user sa mga plano ng Claude na Free, Pro, at Max, kasama ang mga gumagamit ng Claude Code mula sa mga nauugnay na account, ay magkakaroon na ngayon ng opsyon na payagan ang kanilang data na mag-ambag sa pagsasanay ng mga susunod na modelo ng Claude. Ang paglahok na ito ay ipinoposisyon bilang isang mahalagang hakbang tungo sa pagbuo ng mas matatag at matalinong AI.
Ang pag-opt-in sa paggamit ng data na ito ay nag-aalok ng ilang direktang benepisyo. Ayon sa Anthropic, ang mga interaksyon ng user ay nagbibigay ng mahalagang pananaw sa totoong mundo na tumutulong sa pagpipino ng mga protocol ng kaligtasan ng modelo, na ginagawang mas tumpak ang mga sistema para sa pagtuklas ng mapaminsalang nilalaman at hindi gaanong madaling mag-flag ng mga inosenteng pag-uusap. Higit pa sa kaligtasan, ang data ng user ay inaasahang makakapagpabuti nang malaki sa mga pangunahing kakayahan ni Claude, tulad ng kahusayan sa coding, analytical reasoning, at mga kasanayan sa paglutas ng kumplikadong problema. Ang feedback loop na ito ay mahalaga para sa patuloy na ebolusyon ng mga malalaking modelo ng wika, na humahantong sa mas pino at kapaki-pakinabang na mga tool ng AI para sa lahat.
Mahalagang tandaan ang partikular na saklaw ng mga update na ito. Habang nalalapat sa mga account ng consumer-tier, ang mga pagbabagong ito sa patakaran ay hayagang hindi umaabot sa mga serbisyong pinamamahalaan ng Commercial Terms ng Anthropic. Kabilang dito ang Claude for Work, Claude for Government, Claude for Education, at lahat ng paggamit ng API, direkta man o sa pamamagitan ng mga third-party platform tulad ng Amazon Bedrock o Google Cloud’s Vertex AI. Tinitiyak ng pagkakaiba na ito na ang mga commercial client at enterprise-level partner ay pinapanatili ang kanilang kasalukuyang, madalas na bespoke, na mga kasunduan sa data at mga balangkas ng privacy. Para sa mga user na gumagamit ng mga serbisyo tulad ng Amazon Bedrock AgentCore, mananatili ang hiwalay na mga kasunduan.
Pagpili ng Iyong Opsyon: Opt-in at Mga Deadline
Nakatuon ang Anthropic sa pagbibigay sa mga user ng malinaw na kontrol sa kanilang data. Ang parehong bago at kasalukuyang user ng Claude ay makakaranas ng magkakaibang proseso para sa paggawa ng kanilang mga pagpipilian sa pagbabahagi ng data. Makikita ng mga bagong user na nag-signup para sa Claude ang opsyon na piliin ang kanilang kagustuhan para sa pagsasanay ng modelo bilang isang mahalagang bahagi ng proseso ng onboarding, na nagpapahintulot sa kanila na tukuyin ang kanilang mga setting ng privacy mula sa simula.
Para sa mga kasalukuyang user, sinimulan ng Anthropic ang isang phased rollout ng mga in-app na abiso. Ang mga pop-up window na ito ay mag-uudyok sa mga user na suriin ang updated na Consumer Terms at Privacy Policy at magpasya kung papayagan bang gamitin ang kanilang data para sa pagpapabuti ng modelo. Mayroon ang mga user ng grace period hanggang Oktubre 8, 2025, upang gawin ang kanilang pagpipilian. Kung pipiliin ng isang kasalukuyang user na tanggapin ang mga bagong patakaran at mag-opt-in bago ang deadline na ito, agad na magkakabisa ang mga pagbabagong ito para sa lahat ng bago o ipinagpatuloy na chat at coding session. Mahalaga para sa mga user na gumawa ng pagpipilian sa tinukoy na petsa, dahil ang patuloy na paggamit ng Claude pagkatapos ng Oktubre 8, 2025, ay mangangailangan ng pagpili sa setting ng pagsasanay ng modelo. Tinitiyak nito na ang mga user ay aktibong kasangkot sa paghubog ng kanilang privacy landscape.
Mahalaga, ang kontrol ng user ay hindi isang besesang desisyon. Binibigyang-diin ng Anthropic na maaaring ayusin ang mga kagustuhan anumang oras sa pamamagitan ng nakalaang Privacy Settings section sa loob ng interface ng Claude. Ang flexibility na ito ay nagbibigay-diin sa pangako ng kumpanya sa patuloy na awtonomiya ng user tungkol sa kanilang personal na data.
Paghahambing ng Patakaran: Paggamit at Pagpapanatili ng Data
Upang linawin ang epekto ng mga update na ito, ibinubuod ng sumusunod na talahanayan ang mga pangunahing pagkakaiba sa pagitan ng pag-opt-in at pag-opt-out sa paggamit ng data para sa pagsasanay ng modelo sa ilalim ng bagong Consumer Terms:
| Katangian | Opt-in para sa Pagsasanay ng Modelo (Bagong Patakaran) | Opt-out (Kasalukuyan/Default na Patakaran) |
|---|---|---|
| Paggamit ng Data | Mga bago/ipinagpatuloy na chat at coding session na ginagamit para sa pagpapabuti ng modelo at kaligtasan. | Ang mga bago/ipinagpatuloy na chat at coding session ay hindi ginagamit para sa pagsasanay ng modelo. |
| Panahon ng Pagpapanatili ng Data | 5 taon para sa data na nag-opt-in. | 30 araw para sa lahat ng data. |
| Nalalapat sa | Mga account ng Claude Free, Pro, Max at mga Claude Code session. | Mga account ng Claude Free, Pro, Max at mga Claude Code session. |
| Mga Pagbubukod | Commercial Terms, API, Amazon Bedrock, mga serbisyo ng Google Vertex AI. | Parehong mga pagbubukod. |
Estratehikong Pagpapanatili ng Data para sa Pangmatagalang Pagbuo ng AI
Kasama ng opt-in para sa pagsasanay ng modelo, nagpapakilala rin ang Anthropic ng pinalawig na panahon ng pagpapanatili ng data para sa mga user na pipiliing lumahok. Kung pipiliin ng isang user na payagan ang kanilang data para sa pagpapabuti ng modelo, ang panahon ng pagpapanatili para sa mga bago o ipinagpatuloy na chat at coding session ay palalawigin sa limang taon. Para sa mga user na hindi nag-opt-in, patuloy na mailalapat ang kasalukuyang 30-araw na panahon ng pagpapanatili ng data. Sakop din ng pinalawig na pagpapanatili na ito ang feedback na isinumite tungkol sa mga tugon ni Claude sa mga prompt.
Ang pangangatuwiran sa likod ng limang-taong panahon ng pagpapanatili ay malalim na nakaugat sa mga realidad ng advanced na pagbuo ng AI. Ang mga malalaking modelo ng wika ay sumasailalim sa mga siklo ng pagbuo na madalas ay umaabot ng 18 hanggang 24 na buwan bago ilabas. Mahalaga ang pagpapanatili ng pagkakapare-pareho ng data sa mas mahabang panahon para sa paglikha ng mas matatag at mahuhulaan na mga modelo. Ang magkakaparehong data ay nagpapahintulot sa mga modelo na sanayin at pinuhin sa magkatulad na paraan, na humahantong sa mas maayos na paglilipat at pag-upgrade para sa mga user.
Bukod pa rito, ang pinalawig na pagpapanatili ay lubos na nakakatulong sa pagpapabuti ng mga internal classifier ng Anthropic—ang mga sopistikadong sistema na ginagamit upang tukuyin at kontrahin ang maling paggamit, pang-aabuso, spam, at iba pang mapaminsalang pattern. Nagiging mas epektibo ang mga mekanismo ng kaligtasan na ito sa pamamagitan ng pag-aaral mula sa data na nakolekta sa pinalawig na tagal, na nagpapahusay sa kakayahan ni Claude na manatiling ligtas at kapaki-pakinabang na tool para sa lahat. Nakatuon din ang Anthropic sa mas malawak na talakayan sa kaligtasan ng AI, tulad ng idinidiin ng mga inisyatiba tulad ng The Anthropic Institute.
Upang protektahan ang privacy ng user, gumagamit ang Anthropic ng kombinasyon ng mga advanced na tool at automated na proseso upang salain o itago ang sensitibong data bago ito gamitin para sa anumang pagsasanay o pagsusuri ng modelo. Mariing sinasabi ng kumpanya na hindi nito ibinebenta ang data ng user sa mga third party, na nagpapatibay sa pangako nito sa privacy kahit na sa pinalawig na pagpapanatili para sa data na nag-opt-in. Nanatili sa mga user ang kontrol sa kanilang data kahit pagkatapos mag-opt-in; tinitiyak ng pagbura ng isang partikular na pag-uusap na hindi ito gagamitin para sa hinaharap na pagsasanay ng modelo.
Pagbibigay Kapangyarihan sa User at Pamamahala ng Data
Binibigyang-diin ng updated na Consumer Terms at Privacy Policy ng Anthropic ang isang user-centric na diskarte sa pagbuo ng AI. Sa pamamagitan ng paglalagay ng pagpipilian na mag-ambag sa pagpapabuti ng modelo nang direkta sa kamay ng user, layunin ng kumpanya na itaguyod ang isang mas transparent at collaborative na relasyon. Tinitiyak ng kakayahang baguhin ang mga kagustuhan na ito anumang oras na mapanatili ng mga user ang patuloy na kontrol sa paglalakbay ng kanilang data.
Kung ang isang user ay unang nag-opt-in para sa pagsasanay ng modelo ngunit nagpasya kalaunan na magbago ng isip at mag-opt-out, may malinaw na patakaran ang Anthropic. Bagama't ang data na ginamit sa mga nakaraang natapos na pagsasanay ng modelo at mga modelong nailabas na ay maaari pa ring umiral sa loob ng mga bersyong iyon, anumang bagong chat at coding session pagkatapos ng desisyon ng pag-opt-out ay hindi gagamitin para sa hinaharap na pagsasanay. Nangako ang kumpanya na ititigil ang paggamit ng mga naunang naka-imbak na chat at coding session sa anumang hinaharap na pag-ulit ng pagsasanay ng modelo kapag na-update ang kagustuhan. Nag-aalok ito ng isang matatag na mekanismo para sa mga user upang dinamikong pamahalaan ang kanilang mga setting ng privacy.
Ang mga update na ito ay kumakatawan sa isang sinukat na hakbang tungo sa pagbabalanse ng napakalaking potensyal ng AI innovation na batay sa data na may pangunahing kahalagahan ng privacy ng user at transparansiya. Habang ang mga modelo ng AI ay nagiging mas integrated sa pang-araw-araw na buhay, ang mga patakaran na tulad nito ay mahalaga para sa pagbuo ng tiwala at pagtiyak ng etikal na pag-unlad.
Orihinal na pinagmulan
https://www.anthropic.com/news/updates-to-our-consumer-termsMga Karaniwang Tanong
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Manatiling Updated
Kunin ang pinakabagong AI news sa iyong inbox.
