Code Velocity
Model AI

Anthropic Claude: Pembaruan Ketentuan Konsumen & Kebijakan Privasi

·5 mnt baca·Anthropic·Sumber asli
Bagikan
Layar notifikasi Pembaruan Ketentuan Konsumen dan Kebijakan Privasi Anthropic Claude

title: "Anthropic Claude: Pembaruan Ketentuan Konsumen & Kebijakan Privasi" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "id" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "Model AI" keywords:

  • Anthropic
  • Claude AI
  • 'Ketentuan Konsumen'
  • 'Kebijakan Privasi'
  • 'Penggunaan Data'
  • 'Pelatihan Model'
  • 'Keamanan AI'
  • 'Penyimpanan Data'
  • 'Preferensi Pengguna'
  • 'Pengembangan AI'
  • 'Kebijakan LLM'
  • 'Transparansi' meta_description: "Anthropic mengumumkan pembaruan penting pada Ketentuan Konsumen dan Kebijakan Privasi Claude, menawarkan pengguna kontrol atas penggunaan data untuk peningkatan model dan memperpanjang penyimpanan data untuk keamanan dan pengembangan." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Layar notifikasi Pembaruan Ketentuan Konsumen dan Kebijakan Privasi Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Apa perubahan inti yang diperkenalkan dalam Ketentuan Konsumen dan Kebijakan Privasi Anthropic yang diperbarui untuk pengguna Claude?" answer: "Anthropic meluncurkan pembaruan signifikan pada Ketentuan Konsumen dan Kebijakan Privasinya, terutama berpusat pada pemberdayaan pengguna dengan pilihan untuk mengizinkan data mereka digunakan untuk meningkatkan model AI Claude. Ketika pengaturan ini diaktifkan, data dari akun Free, Pro, dan Max, termasuk sesi Claude Code, akan berkontribusi pada pelatihan model baru. Ini bertujuan untuk meningkatkan keamanan, akurasi, dan kapabilitas model di area seperti pengkodean, analisis, dan penalaran. Selain itu, untuk pengguna yang memilih ikut serta (opt-in), periode penyimpanan data akan diperpanjang menjadi lima tahun. Sebaliknya, jika pengguna memilih untuk tidak ikut serta dalam pelatihan model, kebijakan penyimpanan data 30 hari yang ada akan tetap berlaku. Perubahan ini tidak memengaruhi pengguna komersial berdasarkan perjanjian perusahaan tertentu atau penggunaan API, memastikan kebijakan yang berbeda untuk segmen pengguna yang berbeda."
  • question: "Layanan Claude dan jenis pengguna mana yang terpengaruh oleh pembaruan kebijakan baru ini, dan mana yang tidak?" answer: "Ketentuan Konsumen dan Kebijakan Privasi yang diperbarui secara khusus berlaku untuk pengguna individu pada paket Claude Free, Pro, dan Max Anthropic. Ini mencakup kasus di mana pengguna berinteraksi dengan Claude Code melalui akun yang terkait dengan paket konsumen ini. Namun, penting untuk dipahami bahwa pembaruan ini tidak berlaku untuk layanan yang beroperasi di bawah Ketentuan Komersial Anthropic. Ini berarti bahwa Claude for Work (termasuk paket Tim dan Perusahaan), Claude for Government, Claude for Education, dan semua penggunaan API—baik secara langsung atau melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud’s Vertex AI—secara eksplisit dikecualikan dari perubahan kebijakan baru yang berfokus pada konsumen ini. Pengguna komersial dan integrator API akan terus beroperasi di bawah perjanjian yang ada, yang memiliki ketentuan privasi dan penanganan data terpisah."
  • question: "Mengapa Anthropic melakukan perubahan ini, terutama mengenai penggunaan data untuk pelatihan model dan penyimpanan yang diperpanjang?" answer: "Anthropic menyatakan bahwa perubahan ini didorong oleh kebutuhan mendasar untuk terus meningkatkan kapabilitas, keamanan, dan kegunaan model bahasa besar seperti Claude. Interaksi dunia nyata menyediakan sinyal data yang tak ternilai yang membantu model mempelajari respons mana yang paling membantu, akurat, dan aman. Misalnya, pengembang yang men-debug kode dengan Claude menawarkan wawasan krusial untuk meningkatkan kapabilitas pengkodean di masa depan. Penyimpanan data yang diperpanjang lima tahun, khusus untuk pengguna yang memilih ikut serta, dirancang untuk mendukung siklus pengembangan AI yang panjang, memastikan konsistensi data untuk peningkatan model yang lebih stabil, dan meningkatkan efektivitas pengklasifikasi internal yang mendeteksi serta mengurangi pola penggunaan berbahaya seperti penyalahgunaan atau spam selama periode yang lebih lama, pada akhirnya menjadikan Claude lebih aman untuk semua orang."
  • question: "Langkah apa yang perlu diambil oleh pengguna Claude yang sudah ada dan yang baru terkait pembaruan kebijakan ini dan preferensi data mereka?" answer: "Pengguna Claude yang sudah ada akan menerima notifikasi dalam aplikasi yang meminta mereka untuk meninjau pembaruan dan membuat keputusan mengenai apakah akan mengizinkan obrolan dan sesi pengkodean mereka digunakan untuk peningkatan model. Pengguna memiliki waktu hingga 8 Oktober 2025 untuk membuat pilihan ini. Jika mereka memilih untuk menerima lebih awal, kebijakan baru berlaku segera untuk obrolan baru atau yang dilanjutkan. Setelah tenggat waktu, membuat pilihan adalah wajib untuk terus menggunakan Claude. Pengguna baru akan disajikan dengan pilihan ini sebagai bagian dari proses pendaftaran awal. Terlepas dari apakah seseorang adalah pengguna baru atau yang sudah ada, preferensi dapat dimodifikasi kapan saja melalui Pengaturan Privasi khusus di dalam antarmuka Claude, menawarkan kontrol berkelanjutan atas penggunaan data pribadi dan memastikan transparansi."
  • question: "Apa yang terjadi jika pengguna awalnya mengizinkan data untuk pelatihan model tetapi kemudian memutuskan untuk berubah pikiran dan menolak (opt-out)?" answer: "Anthropic menekankan bahwa pengguna mempertahankan kontrol penuh atas preferensi data mereka dan dapat memperbarui pilihan mereka kapan saja melalui Pengaturan Privasi mereka. Jika pengguna awalnya memilih ikut serta (opt-in) untuk pelatihan model dan kemudian memutuskan untuk mematikan pengaturan ini, obrolan dan sesi pengkodean baru dengan Claude tidak akan lagi digunakan untuk pelatihan model di masa mendatang. Penting untuk dicatat, bagaimanapun, bahwa data dari pelatihan model yang telah selesai sebelumnya dan model yang telah dirilis mungkin masih mengandung data dari interaksi masa lalu mereka. Namun demikian, Anthropic berkomitmen untuk menghentikan penggunaan obrolan dan sesi pengkodean yang disimpan sebelumnya dalam iterasi pelatihan model masa depan setelah preferensi penolakan didaftarkan, dengan demikian menghormati pilihan pengguna yang diperbarui untuk penggunaan data dan privasi yang berkelanjutan."
  • question: "Bagaimana Anthropic memastikan privasi pengguna dan perlindungan data dengan kebijakan baru ini, terutama dengan penyimpanan yang diperpanjang?" answer: "Untuk menjaga privasi pengguna, Anthropic menggunakan kombinasi alat canggih dan proses otomatis yang dirancang untuk menyaring atau mengaburkan data sensitif sebelum digunakan untuk pelatihan model, bahkan dengan periode penyimpanan yang diperpanjang untuk pengguna yang memilih ikut serta. Perusahaan secara eksplisit menyatakan bahwa mereka tidak menjual data pengguna kepada pihak ketiga, memperkuat komitmennya terhadap privasi. Selain itu, pengguna mempertahankan kontrol: menghapus percakapan memastikan bahwa percakapan tersebut tidak akan digunakan untuk pelatihan model di masa mendatang, dan mengubah pengaturan opt-in mencegah obrolan baru digunakan. Langkah-langkah ini bertujuan untuk menyeimbangkan kebutuhan akan peningkatan model berbasis data dengan perlindungan privasi yang ketat, memastikan kepercayaan pengguna dan keamanan data sepanjang siklus hidup pengembangan AI. Pendekatan komprehensif ini menggarisbawahi dedikasi Anthropic terhadap praktik AI yang bertanggung jawab."

Anthropic Meluncurkan Pembaruan Penting pada Ketentuan Konsumen dan Kebijakan Privasi Claude

Anthropic, sebuah perusahaan penelitian AI terkemuka, telah mengumumkan pembaruan signifikan pada Ketentuan Konsumen dan Kebijakan Privasinya untuk pengguna model AI Claude-nya. Perubahan ini, yang efektif mulai 28 Agustus 2025, dirancang untuk memberdayakan pengguna dengan kontrol yang lebih besar atas data mereka sekaligus memungkinkan Anthropic untuk mengembangkan sistem AI yang lebih mampu dan lebih aman. Inti dari pembaruan ini berpusat pada mekanisme keikutsertaan (opt-in) untuk penggunaan data dalam pelatihan model dan periode penyimpanan data yang diperpanjang bagi mereka yang berpartisipasi.

Langkah ini mencerminkan tren industri yang berkembang menuju transparansi yang lebih besar dan otonomi pengguna dalam pengembangan kecerdasan buatan. Dengan memungkinkan pengguna untuk secara aktif memilih apakah interaksi mereka berkontribusi pada pembelajaran Claude, Anthropic bertujuan untuk mendorong lingkungan kolaboratif yang menguntungkan baik pengguna individu maupun ekosistem AI yang lebih luas. Evolusi strategis kebijakan yang berhadapan dengan konsumen ini menggarisbawahi komitmen perusahaan terhadap pengembangan AI yang bertanggung jawab dan kepercayaan pengguna.

Meningkatkan Claude dengan Wawasan dan Perlindungan yang Didorong Pengguna

Perubahan utama dalam kebijakan Anthropic yang diperbarui adalah pengenalan pilihan pengguna mengenai pemanfaatan data untuk peningkatan model. Pengguna pada paket Free, Pro, dan Max Claude, termasuk mereka yang memanfaatkan Claude Code dari akun terkait, kini akan memiliki opsi untuk mengizinkan data mereka berkontribusi pada pelatihan model Claude di masa mendatang. Partisipasi ini diposisikan sebagai langkah krusial menuju pembangunan AI yang lebih kuat dan cerdas.

Memilih ikut serta (opt-in) dalam penggunaan data ini menawarkan beberapa manfaat langsung. Menurut Anthropic, interaksi pengguna memberikan wawasan dunia nyata yang berharga yang membantu menyempurnakan protokol keamanan model, membuat sistem untuk mendeteksi konten berbahaya lebih akurat dan tidak mudah salah mengidentifikasi percakapan yang tidak berbahaya. Selain keamanan, data pengguna diharapkan secara signifikan meningkatkan kapabilitas inti Claude, seperti kemahiran pengkodean, penalaran analitis, dan keterampilan pemecahan masalah yang kompleks. Lingkaran umpan balik ini penting untuk evolusi berkelanjutan model bahasa besar, yang mengarah pada alat AI yang lebih halus dan berguna untuk semua.

Penting untuk dicatat ruang lingkup spesifik dari pembaruan ini. Meskipun berlaku untuk akun tingkat konsumen, perubahan kebijakan ini secara eksplisit tidak berlaku untuk layanan yang diatur oleh Ketentuan Komersial Anthropic. Ini mencakup Claude for Work, Claude for Government, Claude for Education, dan semua penggunaan API, baik secara langsung maupun melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud’s Vertex AI. Perbedaan ini memastikan bahwa klien komersial dan mitra tingkat perusahaan mempertahankan perjanjian data dan kerangka privasi yang ada, yang seringkali bersifat khusus. Untuk pengguna yang memanfaatkan layanan seperti Amazon Bedrock AgentCore, perjanjian terpisah tetap berlaku.

Menavigasi Pilihan Anda: Keikutsertaan (Opt-in) dan Tenggat Waktu

Anthropic berkomitmen untuk memberikan pengguna kontrol yang jelas atas data mereka. Baik pengguna Claude yang baru maupun yang sudah ada akan menghadapi proses yang berbeda untuk membuat pilihan berbagi data mereka. Pengguna baru yang mendaftar untuk Claude akan menemukan opsi untuk memilih preferensi mereka untuk pelatihan model sebagai bagian integral dari proses orientasi, memungkinkan mereka untuk menentukan pengaturan privasi mereka sejak awal.

Untuk pengguna yang sudah ada, Anthropic telah memulai peluncuran bertahap notifikasi dalam aplikasi. Jendela pop-up ini akan meminta pengguna untuk meninjau Ketentuan Konsumen dan Kebijakan Privasi yang diperbarui dan memutuskan apakah akan mengizinkan data mereka digunakan untuk peningkatan model. Pengguna memiliki masa tenggang hingga 8 Oktober 2025, untuk membuat pilihan mereka. Jika pengguna yang sudah ada memilih untuk menerima kebijakan baru dan ikut serta (opt-in) sebelum tenggat waktu ini, perubahan ini akan segera berlaku untuk semua obrolan baru atau yang dilanjutkan serta sesi pengkodean. Penting bagi pengguna untuk membuat pilihan pada tanggal yang ditentukan, karena penggunaan Claude secara berkelanjutan setelah 8 Oktober 2025, akan memerlukan pilihan pada pengaturan pelatihan model. Ini memastikan bahwa pengguna secara aktif terlibat dalam membentuk lanskap privasi mereka.

Yang terpenting, kontrol pengguna bukanlah keputusan sekali jalan. Anthropic menekankan bahwa preferensi dapat disesuaikan kapan saja melalui bagian Pengaturan Privasi khusus di dalam antarmuka Claude. Fleksibilitas ini menggarisbawahi komitmen perusahaan terhadap otonomi pengguna yang berkelanjutan mengenai data pribadi mereka.

Perbandingan Kebijakan: Penggunaan dan Penyimpanan Data

Untuk mengklarifikasi dampak dari pembaruan ini, tabel berikut merangkum perbedaan utama antara memilih ikut serta (opt-in) dan menolak (opt-out) penggunaan data untuk pelatihan model di bawah Ketentuan Konsumen yang baru:

FiturIkut serta (Opt-in) untuk Pelatihan Model (Kebijakan Baru)Menolak (Opt-out) (Kebijakan yang Ada/Default)
Penggunaan DataObrolan & sesi pengkodean baru/dilanjutkan digunakan untuk peningkatan & keamanan model.Obrolan & sesi pengkodean baru/dilanjutkan tidak digunakan untuk pelatihan model.
Periode Penyimpanan Data5 tahun untuk data yang ikut serta.30 hari untuk semua data.
Berlaku UntukAkun Claude Free, Pro, Max & sesi Claude Code.Akun Claude Free, Pro, Max & sesi Claude Code.
PengecualianKetentuan Komersial, API, Amazon Bedrock, layanan Google Vertex AI.Pengecualian yang sama.

Penyimpanan Data Strategis untuk Pengembangan AI Jangka Panjang

Seiring dengan keikutsertaan (opt-in) untuk pelatihan model, Anthropic juga memperkenalkan periode penyimpanan data yang diperpanjang bagi pengguna yang memilih untuk berpartisipasi. Jika pengguna memilih untuk mengizinkan data mereka untuk peningkatan model, periode penyimpanan untuk obrolan baru atau yang dilanjutkan serta sesi pengkodean akan diperpanjang menjadi lima tahun. Bagi pengguna yang tidak memilih ikut serta, periode penyimpanan data 30 hari yang ada akan terus berlaku. Penyimpanan yang diperpanjang ini juga mencakup umpan balik yang dikirimkan tentang respons Claude terhadap perintah (prompt).

Alasan di balik periode penyimpanan lima tahun sangat berakar pada realitas pengembangan AI canggih. Model bahasa besar menjalani siklus pengembangan yang seringkali berlangsung 18 hingga 24 bulan sebelum dirilis. Menjaga konsistensi data selama periode yang lebih lama sangat penting untuk menciptakan model yang lebih stabil dan dapat diprediksi. Data yang konsisten memungkinkan model untuk dilatih dan disempurnakan dengan cara yang serupa, yang mengarah pada transisi dan peningkatan yang lebih lancar bagi pengguna.

Selain itu, penyimpanan yang diperpanjang secara signifikan membantu dalam meningkatkan pengklasifikasi internal Anthropic—sistem canggih yang digunakan untuk mengidentifikasi dan melawan penyalahgunaan, pelecehan, spam, dan pola berbahaya lainnya. Mekanisme keamanan ini menjadi lebih efektif dengan belajar dari data yang dikumpulkan selama durasi yang diperpanjang, meningkatkan kemampuan Claude untuk tetap menjadi alat yang aman dan bermanfaat bagi semua orang. Anthropic juga berkomitmen pada diskusi keamanan AI yang lebih luas, seperti yang disoroti oleh inisiatif seperti The Anthropic Institute.

Untuk melindungi privasi pengguna, Anthropic menggunakan kombinasi alat canggih dan proses otomatis untuk menyaring atau mengaburkan data sensitif sebelum digunakan untuk pelatihan model atau analisis apa pun. Perusahaan dengan tegas menyatakan bahwa mereka tidak menjual data pengguna kepada pihak ketiga, memperkuat komitmennya terhadap privasi bahkan dengan penyimpanan yang diperpanjang untuk data yang memilih ikut serta. Pengguna mempertahankan kontrol atas data mereka bahkan setelah memilih ikut serta; menghapus percakapan tertentu memastikan bahwa percakapan tersebut tidak akan digunakan untuk pelatihan model di masa mendatang.

Pemberdayaan Pengguna dan Tata Kelola Data

Ketentuan Konsumen dan Kebijakan Privasi Anthropic yang diperbarui menggarisbawahi pendekatan yang berpusat pada pengguna untuk pengembangan AI. Dengan menempatkan pilihan untuk berkontribusi pada peningkatan model secara langsung di tangan pengguna, perusahaan bertujuan untuk mendorong hubungan yang lebih transparan dan kolaboratif. Kemampuan untuk memodifikasi preferensi ini kapan saja memastikan bahwa pengguna mempertahankan kontrol berkelanjutan atas perjalanan data mereka.

Jika pengguna awalnya memilih ikut serta untuk pelatihan model tetapi kemudian memutuskan untuk berubah pikiran dan menolak (opt-out), Anthropic memiliki kebijakan yang jelas. Meskipun data yang digunakan dalam pelatihan model yang telah selesai sebelumnya dan model yang telah dirilis mungkin masih ada dalam versi tersebut, obrolan dan sesi pengkodean baru setelah keputusan penolakan tidak akan digunakan untuk pelatihan di masa mendatang. Perusahaan berkomitmen untuk menghentikan penggunaan obrolan dan sesi pengkodean yang disimpan sebelumnya dalam iterasi pelatihan model masa depan setelah preferensi diperbarui. Ini menawarkan mekanisme yang kuat bagi pengguna untuk mengelola pengaturan privasi mereka secara dinamis.

Pembaruan ini merupakan langkah terukur untuk menyeimbangkan potensi besar inovasi AI berbasis data dengan pentingnya privasi pengguna dan transparansi. Karena model AI semakin terintegrasi ke dalam kehidupan sehari-hari, kebijakan seperti ini sangat penting untuk membangun kepercayaan dan memastikan pengembangan yang etis.

Pertanyaan yang Sering Diajukan

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Tetap Update

Dapatkan berita AI terbaru di inbox Anda.

Bagikan