title: "Anthropic Claude: Kemas Kini Syarat Pengguna & Dasar Privasi" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "ms" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "Model AI" keywords:
- Anthropic
- Claude AI
- Syarat Pengguna
- Dasar Privasi
- Penggunaan Data
- Latihan Model
- Keselamatan AI
- Pengekalan Data
- Pilihan Pengguna
- Pembangunan AI
- Dasar LLM
- Ketelusan meta_description: "Anthropic mengumumkan kemas kini utama kepada Syarat Pengguna dan Dasar Privasi Claude, menawarkan pengguna kawalan ke atas penggunaan data untuk penambahbaikan model dan melanjutkan pengekalan data untuk keselamatan dan pembangunan." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Skrin pemberitahuan Kemas Kini Syarat Pengguna dan Dasar Privasi Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Apakah perubahan teras yang diperkenalkan dalam Syarat Pengguna dan Dasar Privasi Anthropic yang dikemas kini untuk pengguna Claude?" answer: "Anthropic melancarkan kemas kini penting kepada Syarat Pengguna dan Dasar Privasinya, terutamanya berpusat pada memperkasakan pengguna dengan pilihan untuk membenarkan data mereka digunakan untuk menambah baik model AI Claude. Apabila tetapan ini didayakan, data daripada akaun Percuma, Pro, dan Max, termasuk sesi Claude Code, akan menyumbang kepada latihan model baharu. Ini bertujuan untuk meningkatkan keselamatan, ketepatan, dan keupayaan model dalam bidang seperti pengekodan, analisis, dan penaakulan. Selain itu, untuk pengguna yang memilih-masuk, tempoh pengekalan data akan dilanjutkan kepada lima tahun. Sebaliknya, jika pengguna memilih untuk tidak memilih-masuk untuk latihan model, dasar pengekalan data 30 hari yang sedia ada akan kekal berkuat kuasa. Perubahan ini tidak menjejaskan pengguna komersial di bawah perjanjian perusahaan tertentu atau penggunaan API, memastikan dasar yang berbeza untuk segmen pengguna yang berlainan."
- question: "Perkhidmatan Claude dan jenis pengguna manakah yang terjejas oleh kemas kini dasar baharu ini, dan manakah yang tidak?" answer: "Syarat Pengguna dan Dasar Privasi yang dikemas kini secara khusus terpakai kepada pengguna individu pada pelan Percuma, Pro, dan Max Claude Anthropic. Ini termasuk contoh di mana pengguna berinteraksi dengan Claude Code melalui akaun yang berkaitan dengan pelan pengguna ini. Walau bagaimanapun, adalah penting untuk memahami bahawa kemas kini ini tidak meliputi perkhidmatan yang beroperasi di bawah Syarat Komersial Anthropic. Ini bermakna Claude for Work (termasuk pelan Pasukan dan Perusahaan), Claude for Government, Claude for Education, dan semua penggunaan API—sama ada secara langsung atau melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud's Vertex AI—secara jelas dikecualikan daripada perubahan dasar baharu yang berfokuskan pengguna ini. Pengguna komersial dan penyepadu API akan terus beroperasi di bawah perjanjian sedia ada mereka, yang mempunyai peruntukan privasi dan pengendalian data yang berasingan."
- question: "Mengapakah Anthropic membuat perubahan ini, terutamanya mengenai penggunaan data untuk latihan model dan pengekalan data yang dilanjutkan?" answer: "Anthropic menyatakan bahawa perubahan ini didorong oleh keperluan asas untuk terus menambah baik keupayaan, keselamatan, dan kegunaan model bahasa besar seperti Claude. Interaksi dunia nyata memberikan isyarat data yang tidak ternilai yang membantu model mempelajari tindak balas mana yang paling membantu, tepat, dan selamat. Sebagai contoh, pembangun yang menyahpepijat kod dengan Claude menawarkan pandangan penting untuk menambah baik keupayaan pengekodan masa hadapan. Pengekalan data lima tahun yang dilanjutkan, khusus untuk pengguna yang memilih-masuk, direka untuk menyokong kitaran pembangunan AI yang panjang, memastikan konsistensi data untuk peningkatan model yang lebih stabil dan meningkatkan keberkesanan pengelas dalaman yang mengesan dan mengurangkan corak penggunaan berbahaya seperti penyalahgunaan atau spam dalam tempoh yang lebih lama, akhirnya menjadikan Claude lebih selamat untuk semua orang."
- question: "Apakah langkah-langkah yang perlu diambil oleh pengguna Claude sedia ada dan baharu mengenai kemas kini dasar ini dan pilihan data mereka?" answer: "Pengguna Claude sedia ada akan menerima pemberitahuan dalam aplikasi yang meminta mereka untuk menyemak kemas kini dan membuat keputusan sama ada untuk membenarkan sembang dan sesi pengekodan mereka digunakan untuk penambahbaikan model. Pengguna mempunyai masa sehingga 8 Oktober 2025 untuk membuat pilihan ini. Jika mereka memilih untuk menerima lebih awal, dasar baharu akan segera terpakai kepada sembang baharu atau yang disambung semula. Selepas tarikh akhir, membuat pilihan adalah wajib untuk terus menggunakan Claude. Pengguna baharu akan diberikan pilihan ini sebagai sebahagian daripada proses pendaftaran awal. Tidak kira sama ada seseorang itu pengguna baharu atau sedia ada, pilihan boleh diubah suai pada bila-bila masa melalui Tetapan Privasi yang khusus dalam antara muka Claude, menawarkan kawalan berterusan ke atas penggunaan data peribadi dan memastikan ketelusan."
- question: "Apakah yang berlaku jika pengguna pada mulanya membenarkan data untuk latihan model tetapi kemudian memutuskan untuk mengubah fikiran dan memilih-keluar?" answer: "Anthropic menekankan bahawa pengguna mengekalkan kawalan penuh ke atas pilihan data mereka dan boleh mengemas kini pilihan mereka pada bila-bila masa melalui Tetapan Privasi mereka. Jika pengguna pada mulanya memilih-masuk untuk latihan model dan kemudian memutuskan untuk mematikan tetapan ini, sebarang sembang baharu dan sesi pengekodan dengan Claude tidak lagi akan digunakan untuk sesi latihan model masa hadapan. Walau bagaimanapun, adalah penting untuk diperhatikan bahawa data daripada sesi latihan model yang telah selesai dan model yang telah dikeluarkan mungkin masih mengandungi data daripada interaksi lampau mereka. Namun begitu, Anthropic komited untuk menghentikan penggunaan sembang dan sesi pengekodan yang disimpan sebelum ini dalam sebarang lelaran latihan model masa hadapan setelah pilihan pilih-keluar didaftarkan, dengan itu menghormati pilihan pengguna yang dikemas kini untuk penggunaan data berterusan dan privasi."
- question: "Bagaimana Anthropic memastikan privasi pengguna dan perlindungan data dengan dasar baharu ini, terutamanya dengan pengekalan data yang dilanjutkan?" answer: "Untuk melindungi privasi pengguna, Anthropic menggunakan gabungan alat canggih dan proses automatik yang direka untuk menapis atau mengaburi data sensitif sebelum ia digunakan untuk latihan model, walaupun dengan tempoh pengekalan yang dilanjutkan untuk pengguna yang memilih-masuk. Syarikat itu secara jelas menyatakan bahawa ia tidak menjual data pengguna kepada pihak ketiga, mengukuhkan komitmennya terhadap privasi. Selain itu, pengguna mengekalkan kawalan: memadamkan perbualan memastikan ia tidak akan digunakan untuk latihan model masa hadapan, dan mengubah tetapan pilih-masuk menghalang sembang baharu daripada digunakan. Langkah-langkah ini bertujuan untuk mengimbangi keperluan untuk penambahbaikan model yang didorong oleh data dengan perlindungan privasi yang ketat, memastikan kepercayaan pengguna dan keselamatan data sepanjang kitaran hayat pembangunan AI. Pendekatan komprehensif ini menggariskan dedikasi Anthropic terhadap amalan AI yang bertanggungjawab."
# Anthropic Melancarkan Kemas Kini Utama kepada Syarat Pengguna dan Dasar Privasi Claude
Anthropic, sebuah syarikat penyelidikan AI terkemuka, telah mengumumkan kemas kini penting kepada Syarat Pengguna dan Dasar Privasinya untuk pengguna model AI Claude. Perubahan ini, berkuat kuasa 28 Ogos 2025, direka untuk memperkasakan pengguna dengan kawalan yang lebih besar ke atas data mereka sambil pada masa yang sama membolehkan Anthropic membangunkan sistem AI yang lebih berkemampuan dan selamat. Teras kemas kini ini berpusat pada mekanisme pilih-masuk untuk penggunaan data dalam latihan model dan tempoh pengekalan data yang dilanjutkan bagi mereka yang mengambil bahagian.
Langkah ini mencerminkan trend industri yang semakin meningkat ke arah ketelusan yang lebih besar dan agensi pengguna dalam pembangunan kecerdasan buatan. Dengan membenarkan pengguna secara aktif memilih sama ada interaksi mereka menyumbang kepada pembelajaran Claude, Anthropic bertujuan untuk memupuk persekitaran kolaboratif yang memberi manfaat kepada pengguna individu dan ekosistem AI yang lebih luas. Evolusi strategik dasar yang berhadapan dengan pengguna ini menggariskan komitmen syarikat terhadap pembangunan AI yang bertanggungjawab dan kepercayaan pengguna.
## Mempertingkat Claude dengan Wawasan dan Perlindungan Dipacu Pengguna
Perubahan utama dalam dasar Anthropic yang dikemas kini adalah pengenalan pilihan pengguna mengenai penggunaan data untuk penambahbaikan model. Pengguna pada pelan Percuma, Pro, dan Max Claude, termasuk mereka yang memanfaatkan Claude Code dari akaun yang berkaitan, kini akan mempunyai pilihan untuk membenarkan data mereka menyumbang kepada latihan model Claude masa hadapan. Penyertaan ini diletakkan sebagai langkah penting ke arah membina AI yang lebih teguh dan pintar.
Memilih-masuk kepada penggunaan data ini menawarkan beberapa faedah langsung. Menurut Anthropic, interaksi pengguna menyediakan wawasan dunia nyata yang berharga yang membantu memperhalusi protokol keselamatan model, menjadikan sistem untuk mengesan kandungan berbahaya lebih tepat dan kurang cenderung untuk menanda perbualan yang tidak berbahaya. Di samping keselamatan, data pengguna dijangka meningkatkan keupayaan teras Claude dengan ketara, seperti kecekapan pengekodan, penaakulan analitikal, dan kemahiran penyelesaian masalah yang kompleks. Gelung maklum balas ini penting untuk evolusi berterusan model bahasa besar, yang membawa kepada alat AI yang lebih halus dan berguna untuk semua.
Adalah penting untuk diperhatikan skop khusus kemas kini ini. Walaupun terpakai kepada akaun peringkat pengguna, perubahan dasar ini secara jelas **tidak** meliputi perkhidmatan yang diatur oleh Syarat Komersial Anthropic. Ini termasuk Claude for Work, Claude for Government, Claude for Education, dan semua penggunaan API, sama ada secara langsung atau melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud’s Vertex AI. Perbezaan ini memastikan bahawa pelanggan komersial dan rakan kongsi peringkat perusahaan mengekalkan perjanjian data dan rangka kerja privasi sedia ada mereka, yang selalunya disesuaikan. Bagi pengguna yang memanfaatkan perkhidmatan seperti [Amazon Bedrock AgentCore](/ms/amazon-bedrock-agentcore), perjanjian berasingan kekal berkuat kuasa.
## Menavigasi Pilihan Anda: Pilih-masuk dan Tarikh Akhir
Anthropic komited untuk menyediakan pengguna dengan kawalan yang jelas ke atas data mereka. Pengguna Claude baharu dan sedia ada akan menghadapi proses yang berbeza untuk membuat pilihan perkongsian data mereka. Pengguna baharu yang mendaftar untuk Claude akan mendapati pilihan untuk memilih keutamaan mereka untuk latihan model sebagai sebahagian penting daripada proses pendaftaran, membolehkan mereka menentukan tetapan privasi mereka dari awal.
Bagi pengguna sedia ada, Anthropic telah memulakan pelancaran berperingkat pemberitahuan dalam aplikasi. Tetingkap pop-up ini akan meminta pengguna untuk menyemak Syarat Pengguna dan Dasar Privasi yang dikemas kini dan memutuskan sama ada untuk membenarkan data mereka digunakan untuk penambahbaikan model. Pengguna mempunyai tempoh kelonggaran sehingga **8 Oktober 2025** untuk membuat pilihan mereka. Jika pengguna sedia ada memilih untuk menerima dasar baharu dan memilih-masuk sebelum tarikh akhir ini, perubahan ini akan berkuat kuasa serta-merta untuk semua sembang dan sesi pengekodan baharu atau yang disambung semula. Adalah penting bagi pengguna untuk membuat pilihan pada tarikh yang ditetapkan, kerana penggunaan berterusan Claude selepas 8 Oktober 2025, akan memerlukan pilihan pada tetapan latihan model. Ini memastikan pengguna terlibat secara aktif dalam membentuk landskap privasi mereka.
Yang paling penting, kawalan pengguna bukanlah keputusan sekali sahaja. Anthropic menekankan bahawa pilihan boleh diselaraskan pada bila-bila masa melalui bahagian Tetapan Privasi yang khusus dalam antara muka Claude. Fleksibiliti ini menggariskan komitmen syarikat terhadap autonomi pengguna yang berterusan mengenai data peribadi mereka.
## Perbandingan Dasar: Penggunaan Data dan Pengekalan
Untuk menjelaskan kesan kemas kini ini, jadual berikut merumuskan perbezaan utama antara memilih-masuk dan memilih-keluar daripada penggunaan data untuk latihan model di bawah Syarat Pengguna baharu:
| Ciri | Pilih-masuk untuk Latihan Model (Dasar Baharu) | Pilih-keluar (Dasar Sedia Ada/Lalai) |
| :------------------------ | :--------------------------------------------------------------------- | :---------------------------------------------------------------- |
| **Penggunaan Data** | Sembang & sesi pengekodan baharu/disambung semula digunakan untuk penambahbaikan & keselamatan model. | Sembang & sesi pengekodan baharu/disambung semula **tidak** digunakan untuk latihan model. |
| **Tempoh Pengekalan Data** | 5 tahun untuk data yang memilih-masuk. | 30 hari untuk semua data. |
| **Terpakai Kepada** | Akaun Claude Percuma, Pro, Max & sesi Claude Code. | Akaun Claude Percuma, Pro, Max & sesi Claude Code. |
| **Pengecualian** | Syarat Komersial, API, Amazon Bedrock, perkhidmatan Google Vertex AI. | Pengecualian yang sama. |
## Pengekalan Data Strategik untuk Pembangunan AI Jangka Panjang
Bersama-sama dengan pilihan-masuk untuk latihan model, Anthropic juga memperkenalkan tempoh pengekalan data yang dilanjutkan untuk pengguna yang memilih untuk mengambil bahagian. Jika pengguna memilih untuk membenarkan data mereka untuk penambahbaikan model, tempoh pengekalan untuk sembang dan sesi pengekodan baharu atau yang disambung semula akan dilanjutkan kepada lima tahun. Bagi pengguna yang tidak memilih-masuk, tempoh pengekalan data 30 hari yang sedia ada akan terus terpakai. Pengekalan yang dilanjutkan ini juga meliputi maklum balas yang dihantar mengenai respons Claude terhadap arahan.
Rasional di sebalik tempoh pengekalan lima tahun berakar umbi dalam realiti pembangunan AI yang canggih. Model bahasa besar menjalani kitaran pembangunan yang sering menjangkau 18 hingga 24 bulan sebelum dikeluarkan. Mengekalkan konsistensi data dalam tempoh yang lebih lama adalah penting untuk mencipta model yang lebih stabil dan boleh diramal. Data yang konsisten membolehkan model dilatih dan diperhalusi dengan cara yang serupa, yang membawa kepada peralihan dan peningkatan yang lebih lancar untuk pengguna.
Tambahan pula, pengekalan yang dilanjutkan sangat membantu dalam menambah baik pengelas dalaman Anthropic—sistem canggih yang digunakan untuk mengenal pasti dan mengatasi penyalahgunaan, spam, dan corak berbahaya yang lain. Mekanisme keselamatan ini menjadi lebih berkesan dengan belajar daripada data yang dikumpul dalam tempoh yang dilanjutkan, meningkatkan keupayaan Claude untuk kekal sebagai alat yang selamat dan bermanfaat untuk semua orang. Anthropic juga komited kepada perbincangan keselamatan AI yang lebih luas, seperti yang diserlahkan oleh inisiatif seperti [The Anthropic Institute](/ms/the-anthropic-institute).
Untuk melindungi privasi pengguna, Anthropic menggunakan gabungan alat canggih dan proses automatik untuk menapis atau mengaburi data sensitif sebelum ia digunakan untuk sebarang latihan atau analisis model. Syarikat itu dengan tegas menyatakan bahawa ia tidak menjual data pengguna kepada pihak ketiga, mengukuhkan komitmennya terhadap privasi walaupun dengan pengekalan yang dilanjutkan untuk data yang memilih-masuk. Pengguna mengekalkan kawalan ke atas data mereka walaupun selepas memilih-masuk; memadamkan perbualan tertentu memastikan ia tidak akan digunakan untuk latihan model masa hadapan.
## Pemerkasaan Pengguna dan Tadbir Urus Data
Syarat Pengguna dan Dasar Privasi Anthropic yang dikemas kini menggariskan pendekatan berpusatkan pengguna terhadap pembangunan AI. Dengan meletakkan pilihan untuk menyumbang kepada penambahbaikan model secara langsung di tangan pengguna, syarikat itu bertujuan untuk memupuk hubungan yang lebih telus dan kolaboratif. Keupayaan untuk mengubah suai pilihan ini pada bila-bila masa memastikan bahawa pengguna mengekalkan kawalan berterusan ke atas perjalanan data mereka.
Sekiranya pengguna pada mulanya memilih-masuk untuk latihan model tetapi kemudian memutuskan untuk mengubah fikiran dan memilih-keluar, Anthropic mempunyai dasar yang jelas. Walaupun data yang digunakan dalam sesi latihan model yang telah selesai dan model yang telah dikeluarkan mungkin masih wujud dalam versi tersebut, sebarang sembang *baharu* dan sesi pengekodan selepas keputusan pilih-keluar tidak akan digunakan untuk latihan masa hadapan. Syarikat itu komited untuk menghentikan penggunaan sembang dan sesi pengekodan yang disimpan sebelum ini dalam sebarang lelaran latihan model *masa hadapan* setelah keutamaan dikemas kini. Ini menawarkan mekanisme yang teguh untuk pengguna mengurus tetapan privasi mereka secara dinamik.
Kemas kini ini mewakili langkah yang terukur ke arah mengimbangi potensi besar inovasi AI yang didorong oleh data dengan kepentingan utama privasi pengguna dan ketelusan. Apabila model AI semakin disepadukan ke dalam kehidupan seharian, dasar seperti ini adalah penting untuk membina kepercayaan dan memastikan pembangunan yang beretika.
Soalan Lazim
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.
Kekal Dikemas Kini
Dapatkan berita AI terkini dalam peti masuk anda.
