title: "Anthropic Claude: Pembaruan Ketentuan Konsumen & Kebijakan Privasi" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "id" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "Model AI" keywords:
- Anthropic
- Claude AI
- 'Ketentuan Konsumen'
- 'Kebijakan Privasi'
- 'Penggunaan Data'
- 'Pelatihan Model'
- 'Keamanan AI'
- 'Penyimpanan Data'
- 'Preferensi Pengguna'
- 'Pengembangan AI'
- 'Kebijakan LLM'
- 'Transparansi' meta_description: "Anthropic mengumumkan pembaruan penting pada Ketentuan Konsumen dan Kebijakan Privasi Claude, menawarkan pengguna kontrol atas penggunaan data untuk peningkatan model dan memperpanjang penyimpanan data untuk keamanan dan pengembangan." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Layar notifikasi Pembaruan Ketentuan Konsumen dan Kebijakan Privasi Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Apa perubahan inti yang diperkenalkan dalam Ketentuan Konsumen dan Kebijakan Privasi Anthropic yang diperbarui untuk pengguna Claude?" answer: "Anthropic meluncurkan pembaruan signifikan pada Ketentuan Konsumen dan Kebijakan Privasinya, terutama berpusat pada pemberdayaan pengguna dengan pilihan untuk mengizinkan data mereka digunakan untuk meningkatkan model AI Claude. Ketika pengaturan ini diaktifkan, data dari akun Free, Pro, dan Max, termasuk sesi Claude Code, akan berkontribusi pada pelatihan model baru. Ini bertujuan untuk meningkatkan keamanan, akurasi, dan kapabilitas model di area seperti pengkodean, analisis, dan penalaran. Selain itu, untuk pengguna yang memilih ikut serta (opt-in), periode penyimpanan data akan diperpanjang menjadi lima tahun. Sebaliknya, jika pengguna memilih untuk tidak ikut serta dalam pelatihan model, kebijakan penyimpanan data 30 hari yang ada akan tetap berlaku. Perubahan ini tidak memengaruhi pengguna komersial berdasarkan perjanjian perusahaan tertentu atau penggunaan API, memastikan kebijakan yang berbeda untuk segmen pengguna yang berbeda."
- question: "Layanan Claude dan jenis pengguna mana yang terpengaruh oleh pembaruan kebijakan baru ini, dan mana yang tidak?" answer: "Ketentuan Konsumen dan Kebijakan Privasi yang diperbarui secara khusus berlaku untuk pengguna individu pada paket Claude Free, Pro, dan Max Anthropic. Ini mencakup kasus di mana pengguna berinteraksi dengan Claude Code melalui akun yang terkait dengan paket konsumen ini. Namun, penting untuk dipahami bahwa pembaruan ini tidak berlaku untuk layanan yang beroperasi di bawah Ketentuan Komersial Anthropic. Ini berarti bahwa Claude for Work (termasuk paket Tim dan Perusahaan), Claude for Government, Claude for Education, dan semua penggunaan API—baik secara langsung atau melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud’s Vertex AI—secara eksplisit dikecualikan dari perubahan kebijakan baru yang berfokus pada konsumen ini. Pengguna komersial dan integrator API akan terus beroperasi di bawah perjanjian yang ada, yang memiliki ketentuan privasi dan penanganan data terpisah."
- question: "Mengapa Anthropic melakukan perubahan ini, terutama mengenai penggunaan data untuk pelatihan model dan penyimpanan yang diperpanjang?" answer: "Anthropic menyatakan bahwa perubahan ini didorong oleh kebutuhan mendasar untuk terus meningkatkan kapabilitas, keamanan, dan kegunaan model bahasa besar seperti Claude. Interaksi dunia nyata menyediakan sinyal data yang tak ternilai yang membantu model mempelajari respons mana yang paling membantu, akurat, dan aman. Misalnya, pengembang yang men-debug kode dengan Claude menawarkan wawasan krusial untuk meningkatkan kapabilitas pengkodean di masa depan. Penyimpanan data yang diperpanjang lima tahun, khusus untuk pengguna yang memilih ikut serta, dirancang untuk mendukung siklus pengembangan AI yang panjang, memastikan konsistensi data untuk peningkatan model yang lebih stabil, dan meningkatkan efektivitas pengklasifikasi internal yang mendeteksi serta mengurangi pola penggunaan berbahaya seperti penyalahgunaan atau spam selama periode yang lebih lama, pada akhirnya menjadikan Claude lebih aman untuk semua orang."
- question: "Langkah apa yang perlu diambil oleh pengguna Claude yang sudah ada dan yang baru terkait pembaruan kebijakan ini dan preferensi data mereka?" answer: "Pengguna Claude yang sudah ada akan menerima notifikasi dalam aplikasi yang meminta mereka untuk meninjau pembaruan dan membuat keputusan mengenai apakah akan mengizinkan obrolan dan sesi pengkodean mereka digunakan untuk peningkatan model. Pengguna memiliki waktu hingga 8 Oktober 2025 untuk membuat pilihan ini. Jika mereka memilih untuk menerima lebih awal, kebijakan baru berlaku segera untuk obrolan baru atau yang dilanjutkan. Setelah tenggat waktu, membuat pilihan adalah wajib untuk terus menggunakan Claude. Pengguna baru akan disajikan dengan pilihan ini sebagai bagian dari proses pendaftaran awal. Terlepas dari apakah seseorang adalah pengguna baru atau yang sudah ada, preferensi dapat dimodifikasi kapan saja melalui Pengaturan Privasi khusus di dalam antarmuka Claude, menawarkan kontrol berkelanjutan atas penggunaan data pribadi dan memastikan transparansi."
- question: "Apa yang terjadi jika pengguna awalnya mengizinkan data untuk pelatihan model tetapi kemudian memutuskan untuk berubah pikiran dan menolak (opt-out)?" answer: "Anthropic menekankan bahwa pengguna mempertahankan kontrol penuh atas preferensi data mereka dan dapat memperbarui pilihan mereka kapan saja melalui Pengaturan Privasi mereka. Jika pengguna awalnya memilih ikut serta (opt-in) untuk pelatihan model dan kemudian memutuskan untuk mematikan pengaturan ini, obrolan dan sesi pengkodean baru dengan Claude tidak akan lagi digunakan untuk pelatihan model di masa mendatang. Penting untuk dicatat, bagaimanapun, bahwa data dari pelatihan model yang telah selesai sebelumnya dan model yang telah dirilis mungkin masih mengandung data dari interaksi masa lalu mereka. Namun demikian, Anthropic berkomitmen untuk menghentikan penggunaan obrolan dan sesi pengkodean yang disimpan sebelumnya dalam iterasi pelatihan model masa depan setelah preferensi penolakan didaftarkan, dengan demikian menghormati pilihan pengguna yang diperbarui untuk penggunaan data dan privasi yang berkelanjutan."
- question: "Bagaimana Anthropic memastikan privasi pengguna dan perlindungan data dengan kebijakan baru ini, terutama dengan penyimpanan yang diperpanjang?" answer: "Untuk menjaga privasi pengguna, Anthropic menggunakan kombinasi alat canggih dan proses otomatis yang dirancang untuk menyaring atau mengaburkan data sensitif sebelum digunakan untuk pelatihan model, bahkan dengan periode penyimpanan yang diperpanjang untuk pengguna yang memilih ikut serta. Perusahaan secara eksplisit menyatakan bahwa mereka tidak menjual data pengguna kepada pihak ketiga, memperkuat komitmennya terhadap privasi. Selain itu, pengguna mempertahankan kontrol: menghapus percakapan memastikan bahwa percakapan tersebut tidak akan digunakan untuk pelatihan model di masa mendatang, dan mengubah pengaturan opt-in mencegah obrolan baru digunakan. Langkah-langkah ini bertujuan untuk menyeimbangkan kebutuhan akan peningkatan model berbasis data dengan perlindungan privasi yang ketat, memastikan kepercayaan pengguna dan keamanan data sepanjang siklus hidup pengembangan AI. Pendekatan komprehensif ini menggarisbawahi dedikasi Anthropic terhadap praktik AI yang bertanggung jawab."
Anthropic Meluncurkan Pembaruan Penting pada Ketentuan Konsumen dan Kebijakan Privasi Claude
Anthropic, sebuah perusahaan penelitian AI terkemuka, telah mengumumkan pembaruan signifikan pada Ketentuan Konsumen dan Kebijakan Privasinya untuk pengguna model AI Claude-nya. Perubahan ini, yang efektif mulai 28 Agustus 2025, dirancang untuk memberdayakan pengguna dengan kontrol yang lebih besar atas data mereka sekaligus memungkinkan Anthropic untuk mengembangkan sistem AI yang lebih mampu dan lebih aman. Inti dari pembaruan ini berpusat pada mekanisme keikutsertaan (opt-in) untuk penggunaan data dalam pelatihan model dan periode penyimpanan data yang diperpanjang bagi mereka yang berpartisipasi.
Langkah ini mencerminkan tren industri yang berkembang menuju transparansi yang lebih besar dan otonomi pengguna dalam pengembangan kecerdasan buatan. Dengan memungkinkan pengguna untuk secara aktif memilih apakah interaksi mereka berkontribusi pada pembelajaran Claude, Anthropic bertujuan untuk mendorong lingkungan kolaboratif yang menguntungkan baik pengguna individu maupun ekosistem AI yang lebih luas. Evolusi strategis kebijakan yang berhadapan dengan konsumen ini menggarisbawahi komitmen perusahaan terhadap pengembangan AI yang bertanggung jawab dan kepercayaan pengguna.
Meningkatkan Claude dengan Wawasan dan Perlindungan yang Didorong Pengguna
Perubahan utama dalam kebijakan Anthropic yang diperbarui adalah pengenalan pilihan pengguna mengenai pemanfaatan data untuk peningkatan model. Pengguna pada paket Free, Pro, dan Max Claude, termasuk mereka yang memanfaatkan Claude Code dari akun terkait, kini akan memiliki opsi untuk mengizinkan data mereka berkontribusi pada pelatihan model Claude di masa mendatang. Partisipasi ini diposisikan sebagai langkah krusial menuju pembangunan AI yang lebih kuat dan cerdas.
Memilih ikut serta (opt-in) dalam penggunaan data ini menawarkan beberapa manfaat langsung. Menurut Anthropic, interaksi pengguna memberikan wawasan dunia nyata yang berharga yang membantu menyempurnakan protokol keamanan model, membuat sistem untuk mendeteksi konten berbahaya lebih akurat dan tidak mudah salah mengidentifikasi percakapan yang tidak berbahaya. Selain keamanan, data pengguna diharapkan secara signifikan meningkatkan kapabilitas inti Claude, seperti kemahiran pengkodean, penalaran analitis, dan keterampilan pemecahan masalah yang kompleks. Lingkaran umpan balik ini penting untuk evolusi berkelanjutan model bahasa besar, yang mengarah pada alat AI yang lebih halus dan berguna untuk semua.
Penting untuk dicatat ruang lingkup spesifik dari pembaruan ini. Meskipun berlaku untuk akun tingkat konsumen, perubahan kebijakan ini secara eksplisit tidak berlaku untuk layanan yang diatur oleh Ketentuan Komersial Anthropic. Ini mencakup Claude for Work, Claude for Government, Claude for Education, dan semua penggunaan API, baik secara langsung maupun melalui platform pihak ketiga seperti Amazon Bedrock atau Google Cloud’s Vertex AI. Perbedaan ini memastikan bahwa klien komersial dan mitra tingkat perusahaan mempertahankan perjanjian data dan kerangka privasi yang ada, yang seringkali bersifat khusus. Untuk pengguna yang memanfaatkan layanan seperti Amazon Bedrock AgentCore, perjanjian terpisah tetap berlaku.
Menavigasi Pilihan Anda: Keikutsertaan (Opt-in) dan Tenggat Waktu
Anthropic berkomitmen untuk memberikan pengguna kontrol yang jelas atas data mereka. Baik pengguna Claude yang baru maupun yang sudah ada akan menghadapi proses yang berbeda untuk membuat pilihan berbagi data mereka. Pengguna baru yang mendaftar untuk Claude akan menemukan opsi untuk memilih preferensi mereka untuk pelatihan model sebagai bagian integral dari proses orientasi, memungkinkan mereka untuk menentukan pengaturan privasi mereka sejak awal.
Untuk pengguna yang sudah ada, Anthropic telah memulai peluncuran bertahap notifikasi dalam aplikasi. Jendela pop-up ini akan meminta pengguna untuk meninjau Ketentuan Konsumen dan Kebijakan Privasi yang diperbarui dan memutuskan apakah akan mengizinkan data mereka digunakan untuk peningkatan model. Pengguna memiliki masa tenggang hingga 8 Oktober 2025, untuk membuat pilihan mereka. Jika pengguna yang sudah ada memilih untuk menerima kebijakan baru dan ikut serta (opt-in) sebelum tenggat waktu ini, perubahan ini akan segera berlaku untuk semua obrolan baru atau yang dilanjutkan serta sesi pengkodean. Penting bagi pengguna untuk membuat pilihan pada tanggal yang ditentukan, karena penggunaan Claude secara berkelanjutan setelah 8 Oktober 2025, akan memerlukan pilihan pada pengaturan pelatihan model. Ini memastikan bahwa pengguna secara aktif terlibat dalam membentuk lanskap privasi mereka.
Yang terpenting, kontrol pengguna bukanlah keputusan sekali jalan. Anthropic menekankan bahwa preferensi dapat disesuaikan kapan saja melalui bagian Pengaturan Privasi khusus di dalam antarmuka Claude. Fleksibilitas ini menggarisbawahi komitmen perusahaan terhadap otonomi pengguna yang berkelanjutan mengenai data pribadi mereka.
Perbandingan Kebijakan: Penggunaan dan Penyimpanan Data
Untuk mengklarifikasi dampak dari pembaruan ini, tabel berikut merangkum perbedaan utama antara memilih ikut serta (opt-in) dan menolak (opt-out) penggunaan data untuk pelatihan model di bawah Ketentuan Konsumen yang baru:
| Fitur | Ikut serta (Opt-in) untuk Pelatihan Model (Kebijakan Baru) | Menolak (Opt-out) (Kebijakan yang Ada/Default) |
|---|---|---|
| Penggunaan Data | Obrolan & sesi pengkodean baru/dilanjutkan digunakan untuk peningkatan & keamanan model. | Obrolan & sesi pengkodean baru/dilanjutkan tidak digunakan untuk pelatihan model. |
| Periode Penyimpanan Data | 5 tahun untuk data yang ikut serta. | 30 hari untuk semua data. |
| Berlaku Untuk | Akun Claude Free, Pro, Max & sesi Claude Code. | Akun Claude Free, Pro, Max & sesi Claude Code. |
| Pengecualian | Ketentuan Komersial, API, Amazon Bedrock, layanan Google Vertex AI. | Pengecualian yang sama. |
Penyimpanan Data Strategis untuk Pengembangan AI Jangka Panjang
Seiring dengan keikutsertaan (opt-in) untuk pelatihan model, Anthropic juga memperkenalkan periode penyimpanan data yang diperpanjang bagi pengguna yang memilih untuk berpartisipasi. Jika pengguna memilih untuk mengizinkan data mereka untuk peningkatan model, periode penyimpanan untuk obrolan baru atau yang dilanjutkan serta sesi pengkodean akan diperpanjang menjadi lima tahun. Bagi pengguna yang tidak memilih ikut serta, periode penyimpanan data 30 hari yang ada akan terus berlaku. Penyimpanan yang diperpanjang ini juga mencakup umpan balik yang dikirimkan tentang respons Claude terhadap perintah (prompt).
Alasan di balik periode penyimpanan lima tahun sangat berakar pada realitas pengembangan AI canggih. Model bahasa besar menjalani siklus pengembangan yang seringkali berlangsung 18 hingga 24 bulan sebelum dirilis. Menjaga konsistensi data selama periode yang lebih lama sangat penting untuk menciptakan model yang lebih stabil dan dapat diprediksi. Data yang konsisten memungkinkan model untuk dilatih dan disempurnakan dengan cara yang serupa, yang mengarah pada transisi dan peningkatan yang lebih lancar bagi pengguna.
Selain itu, penyimpanan yang diperpanjang secara signifikan membantu dalam meningkatkan pengklasifikasi internal Anthropic—sistem canggih yang digunakan untuk mengidentifikasi dan melawan penyalahgunaan, pelecehan, spam, dan pola berbahaya lainnya. Mekanisme keamanan ini menjadi lebih efektif dengan belajar dari data yang dikumpulkan selama durasi yang diperpanjang, meningkatkan kemampuan Claude untuk tetap menjadi alat yang aman dan bermanfaat bagi semua orang. Anthropic juga berkomitmen pada diskusi keamanan AI yang lebih luas, seperti yang disoroti oleh inisiatif seperti The Anthropic Institute.
Untuk melindungi privasi pengguna, Anthropic menggunakan kombinasi alat canggih dan proses otomatis untuk menyaring atau mengaburkan data sensitif sebelum digunakan untuk pelatihan model atau analisis apa pun. Perusahaan dengan tegas menyatakan bahwa mereka tidak menjual data pengguna kepada pihak ketiga, memperkuat komitmennya terhadap privasi bahkan dengan penyimpanan yang diperpanjang untuk data yang memilih ikut serta. Pengguna mempertahankan kontrol atas data mereka bahkan setelah memilih ikut serta; menghapus percakapan tertentu memastikan bahwa percakapan tersebut tidak akan digunakan untuk pelatihan model di masa mendatang.
Pemberdayaan Pengguna dan Tata Kelola Data
Ketentuan Konsumen dan Kebijakan Privasi Anthropic yang diperbarui menggarisbawahi pendekatan yang berpusat pada pengguna untuk pengembangan AI. Dengan menempatkan pilihan untuk berkontribusi pada peningkatan model secara langsung di tangan pengguna, perusahaan bertujuan untuk mendorong hubungan yang lebih transparan dan kolaboratif. Kemampuan untuk memodifikasi preferensi ini kapan saja memastikan bahwa pengguna mempertahankan kontrol berkelanjutan atas perjalanan data mereka.
Jika pengguna awalnya memilih ikut serta untuk pelatihan model tetapi kemudian memutuskan untuk berubah pikiran dan menolak (opt-out), Anthropic memiliki kebijakan yang jelas. Meskipun data yang digunakan dalam pelatihan model yang telah selesai sebelumnya dan model yang telah dirilis mungkin masih ada dalam versi tersebut, obrolan dan sesi pengkodean baru setelah keputusan penolakan tidak akan digunakan untuk pelatihan di masa mendatang. Perusahaan berkomitmen untuk menghentikan penggunaan obrolan dan sesi pengkodean yang disimpan sebelumnya dalam iterasi pelatihan model masa depan setelah preferensi diperbarui. Ini menawarkan mekanisme yang kuat bagi pengguna untuk mengelola pengaturan privasi mereka secara dinamis.
Pembaruan ini merupakan langkah terukur untuk menyeimbangkan potensi besar inovasi AI berbasis data dengan pentingnya privasi pengguna dan transparansi. Karena model AI semakin terintegrasi ke dalam kehidupan sehari-hari, kebijakan seperti ini sangat penting untuk membangun kepercayaan dan memastikan pengembangan yang etis.
Pertanyaan yang Sering Diajukan
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Tetap Update
Dapatkan berita AI terbaru di inbox Anda.
