Code Velocity
Yapay Zeka Modelleri

Anthropic Claude: Tüketici Şartları ve Gizlilik Politikası Güncellemeleri

·5 dk okuma·Anthropic·Orijinal kaynak
Paylaş
Anthropic Claude Tüketici Şartları ve Gizlilik Politikası Güncelleme bildirimi ekranı

Anthropic, Claude'un Tüketici Şartları ve Gizlilik Politikası'nda Önemli Güncellemeler Yayımlıyor

Önde gelen bir yapay zeka araştırma şirketi olan Anthropic, Claude yapay zeka modellerinin kullanıcıları için Tüketici Şartları ve Gizlilik Politikası'nda önemli güncellemeler duyurdu. 28 Ağustos 2025'te yürürlüğe girecek bu değişiklikler, kullanıcılara verileri üzerinde daha fazla kontrol sağlarken, aynı zamanda Anthropic'in daha yetenekli ve daha güvenli yapay zeka sistemleri geliştirmesine olanak tanımak üzere tasarlandı. Bu güncellemelerin temelini, model eğitiminde veri kullanımı için bir katılım mekanizması ve katılanlar için uzatılmış bir veri saklama süresi oluşturuyor.

Bu hamle, yapay zeka gelişiminde daha fazla şeffaflık ve kullanıcı inisiyatifine doğru artan bir endüstri trendini yansıtıyor. Kullanıcıların, etkileşimlerinin Claude'un öğrenmesine katkıda bulunup bulunmayacağını aktif olarak seçmelerine izin vererek, Anthropic hem bireysel kullanıcılara hem de daha geniş yapay zeka ekosistemine fayda sağlayan işbirlikçi bir ortamı teşvik etmeyi amaçlıyor. Tüketici odaklı politikaların bu stratejik evrimi, şirketin sorumlu yapay zeka geliştirme ve kullanıcı güvenine olan bağlılığını vurguluyor.

Kullanıcı Odaklı İçgörüler ve Güvenlik Önlemleriyle Claude'u Geliştirmek

Anthropic'in güncellenmiş politikasındaki temel değişiklik, model geliştirme için veri kullanımına ilişkin bir kullanıcı tercihinin sunulmasıdır. Claude'un Ücretsiz, Pro ve Max planlarındaki kullanıcılar, ilişkili hesaplardan Claude Code'u kullananlar da dahil olmak üzere, artık verilerinin gelecekteki Claude modellerinin eğitimine katkıda bulunmasına izin verme seçeneğine sahip olacaklar. Bu katılım, daha sağlam ve akıllı yapay zeka oluşturmaya yönelik kritik bir adım olarak konumlandırılıyor.

Bu veri kullanımına katılmak birkaç doğrudan fayda sunuyor. Anthropic'e göre, kullanıcı etkileşimleri, model güvenlik protokollerini iyileştirmeye yardımcı olan değerli gerçek dünya içgörüleri sağlayarak, zararlı içerik algılama sistemlerini daha doğru ve masum sohbetleri yanlışlıkla işaretlemeye daha az eğilimli hale getiriyor. Güvenliğin ötesinde, kullanıcı verilerinin Claude'un kodlama yeteneği, analitik muhakeme ve karmaşık problem çözme becerileri gibi temel yeteneklerini önemli ölçüde geliştirmesi bekleniyor. Bu geri bildirim döngüsü, büyük dil modellerinin sürekli evrimi için vazgeçilmez olup, herkes için daha rafine ve kullanışlı yapay zeka araçlarına yol açıyor.

Bu güncellemelerin belirli kapsamını belirtmek önemlidir. Tüketici düzeyindeki hesaplar için geçerli olmakla birlikte, bu politika değişiklikleri Anthropic'in Ticari Şartları tarafından yönetilen hizmetlere açıkça uzanmaz. Buna İş İçin Claude, Devlet İçin Claude, Eğitim İçin Claude ve tüm API kullanımları, ister doğrudan ister Amazon Bedrock veya Google Cloud’ın Vertex AI gibi üçüncü taraf platformlar aracılığıyla olsun, dahildir. Bu ayrım, ticari müşterilerin ve kurumsal düzeydeki ortakların mevcut, genellikle özel veri anlaşmalarını ve gizlilik çerçevelerini korumasını sağlar. Amazon Bedrock AgentCore gibi hizmetleri kullanan kullanıcılar için ayrı anlaşmalar yürürlükte kalır.

Seçeneklerinizi Yönlendirme: Katılım ve Son Tarihler

Anthropic, kullanıcılara verileri üzerinde net kontrol sağlamayı taahhüt eder. Hem yeni hem de mevcut Claude kullanıcıları, veri paylaşımı tercihlerini yapmak için farklı süreçlerle karşılaşacaklardır. Claude'a kaydolan yeni kullanıcılar, model eğitimi için tercihlerini seçme seçeneğini kayıt sürecinin ayrılmaz bir parçası olarak bulacak ve gizlilik ayarlarını baştan tanımlamalarına olanak tanıyacaktır.

Mevcut kullanıcılar için Anthropic, uygulama içi bildirimlerin aşamalı olarak kullanıma sunulmasını başlattı. Bu açılır pencereler, kullanıcıları güncellenmiş Tüketici Şartları ve Gizlilik Politikası'nı incelemeye ve verilerinin model geliştirme için kullanılmasına izin verip vermeme konusunda karar vermeye teşvik edecek. Kullanıcıların seçimlerini yapmak için 8 Ekim 2025 tarihine kadar bir bekleme süresi bulunmaktadır. Mevcut bir kullanıcı bu son tarihten önce yeni politikaları kabul etmeyi ve katılmayı seçerse, bu değişiklikler tüm yeni veya devam eden sohbetler ve kodlama oturumları için derhal yürürlüğe girecektir. Belirtilen tarihe kadar bir seçim yapmaları kullanıcılar için çok önemlidir, çünkü 8 Ekim 2025'ten sonra Claude'u kullanmaya devam etmek, model eğitimi ayarı üzerinde bir seçim yapmayı gerektirecektir. Bu, kullanıcıların gizlilik ortamlarını şekillendirmede aktif olarak yer almalarını sağlar.

En önemlisi, kullanıcı kontrolü tek seferlik bir karar değildir. Anthropic, tercihlerin Claude arayüzündeki özel Gizlilik Ayarları bölümü aracılığıyla herhangi bir zamanda ayarlanabileceğini vurguluyor. Bu esneklik, şirketin kişisel verilerine ilişkin devam eden kullanıcı özerkliğine olan bağlılığını destekliyor.

Politika Karşılaştırması: Veri Kullanımı ve Saklama

Bu güncellemelerin etkisini açıklığa kavuşturmak için, yeni Tüketici Şartları kapsamında model eğitimi için veri kullanımına katılma ve vazgeçme arasındaki temel farklılıklar aşağıdaki tabloda özetlenmiştir:

ÖzellikModel Eğitimi İçin Katılım (Yeni Politika)Vazgeçme (Mevcut/Varsayılan Politika)
Veri KullanımıYeni/devam eden sohbetler ve kodlama oturumları model geliştirme ve güvenlik için kullanılır.Yeni/devam eden sohbetler ve kodlama oturumları model eğitimi için kullanılmaz.
Veri Saklama SüresiKatılan veriler için 5 yıl.Tüm veriler için 30 gün.
UygulanırClaude Ücretsiz, Pro, Maksimum hesaplar ve Claude Code oturumları.Claude Ücretsiz, Pro, Maksimum hesaplar ve Claude Code oturumları.
İstisnalarTicari Şartlar, API, Amazon Bedrock, Google Vertex AI hizmetleri.Aynı istisnalar.

Uzun Vadeli Yapay Zeka Gelişimi İçin Stratejik Veri Saklama

Model eğitimine katılımın yanı sıra, Anthropic aynı zamanda katılmayı seçen kullanıcılar için uzatılmış bir veri saklama süresi de sunuyor. Bir kullanıcı verilerini model geliştirme için kullanmaya izin verirse, yeni veya devam eden sohbetler ve kodlama oturumları için saklama süresi beş yıla uzatılacaktır. Katılmayan kullanıcılar için ise mevcut 30 günlük veri saklama süresi uygulanmaya devam edecektir. Bu uzatılmış saklama, Claude'un istemlere verdiği yanıtlar hakkında gönderilen geri bildirimleri de kapsar.

Beş yıllık saklama süresinin arkasındaki gerekçe, gelişmiş yapay zeka geliştirme gerçeklerine derinlemesine kök salmıştır. Büyük dil modelleri, genellikle piyasaya sürülmeden önce 18 ila 24 ay süren geliştirme döngülerinden geçer. Daha uzun süreler boyunca veri tutarlılığını sürdürmek, daha kararlı ve öngörülebilir modeller oluşturmak için hayati öneme sahiptir. Tutarlı veriler, modellerin benzer şekillerde eğitilmesine ve iyileştirilmesine olanak tanıyarak, kullanıcılar için daha sorunsuz geçişler ve yükseltmeler sağlar.

Ayrıca, uzatılmış saklama, Anthropic'in dahili sınıflandırıcılarını — kötüye kullanım, istismar, spam ve diğer zararlı kalıpları tespit etmek ve bunlarla mücadele etmek için kullanılan sofistike sistemleri — iyileştirmede önemli ölçüde yardımcı olur. Bu güvenlik mekanizmaları, daha uzun süreler boyunca toplanan verilerden öğrenerek daha etkili hale gelir ve Claude'un herkes için güvenli ve faydalı bir araç olarak kalma yeteneğini artırır. Anthropic, Anthropic Enstitüsü gibi girişimlerle vurgulandığı üzere, daha geniş yapay zeka güvenliği tartışmalarına da bağlıdır.

Kullanıcı gizliliğini korumak için Anthropic, hassas verileri herhangi bir model eğitimi veya analizi için kullanılmadan önce filtrelemek veya gizlemek üzere tasarlanmış gelişmiş araçlar ve otomatik süreçlerin bir kombinasyonunu kullanır, hatta katılan kullanıcılar için uzatılmış saklama süresi olsa bile. Şirket, kullanıcı verilerini üçüncü taraflara satmadığını kesin bir dille belirtmekte, katılım gösterilen veriler için uzatılmış saklama süresi olsa bile gizlilik taahhüdünü pekiştirmektedir. Kullanıcılar, katıldıktan sonra bile verileri üzerinde kontrol sahibi olmaya devam eder; belirli bir sohbeti silmek, gelecekteki model eğitimi için kullanılmayacağını garanti eder.

Kullanıcı Yetkilendirmesi ve Veri Yönetimi

Anthropic'in güncellenmiş Tüketici Şartları ve Gizlilik Politikası, yapay zeka geliştirmeye kullanıcı merkezli bir yaklaşımı vurgulamaktadır. Model geliştirmeye katkıda bulunma tercihini doğrudan kullanıcının eline bırakarak, şirket daha şeffaf ve işbirlikçi bir ilişkiyi teşvik etmeyi amaçlamaktadır. Bu tercihleri herhangi bir zamanda değiştirme yeteneği, kullanıcıların verilerinin yolculuğu üzerinde sürekli kontrol sağlamasını garantiler.

Bir kullanıcı başlangıçta model eğitimi için katılmayı seçer ancak daha sonra fikrini değiştirip vazgeçerse, Anthropic'in açık bir politikası vardır. Daha önce tamamlanmış model eğitimi çalıştırmalarında ve zaten yayınlanmış modellerde kullanılan veriler o versiyonlarda hala bulunabilse de, vazgeçme kararından sonraki yeni sohbetler ve kodlama oturumları gelecekteki eğitim için kullanılmayacaktır. Şirket, tercih güncellendikten sonra daha önce depolanmış sohbetlerin ve kodlama oturumlarının gelecekteki model eğitimi yinelemelerinde kullanımını durdurmayı taahhüt eder. Bu, kullanıcıların gizlilik ayarlarını dinamik olarak yönetmeleri için sağlam bir mekanizma sunar.

Bu güncellemeler, veri odaklı yapay zeka inovasyonunun devasa potansiyeli ile kullanıcı gizliliğinin ve şeffaflığının en önemli dengesi arasında ölçülü bir adımı temsil ediyor. Yapay zeka modelleri günlük yaşama giderek daha fazla entegre oldukça, bu tür politikalar güven oluşturmak ve etik gelişimi sağlamak için hayati önem taşımaktadır.

Sık Sorulan Sorular

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Güncel Kalın

En son yapay zeka haberlerini e-postanıza alın.

Paylaş