title: "Anthropic Claude: उपभोक्ता नियम और गोपनीयता नीति अपडेट" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "hi" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "एआई मॉडल" keywords:
- Anthropic
- Claude AI
- उपभोक्ता नियम
- गोपनीयता नीति
- डेटा उपयोग
- मॉडल प्रशिक्षण
- एआई सुरक्षा
- डेटा प्रतिधारण
- उपयोगकर्ता प्राथमिकताएँ
- एआई विकास
- एलएलएम नीति
- पारदर्शिता meta_description: "Anthropic ने Claude के उपभोक्ता नियमों और गोपनीयता नीति में महत्वपूर्ण अपडेट की घोषणा की है, जो उपयोगकर्ताओं को मॉडल सुधार के लिए डेटा उपयोग पर नियंत्रण प्रदान करते हैं और सुरक्षा तथा विकास के लिए डेटा प्रतिधारण का विस्तार करते हैं।" image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude उपभोक्ता नियम और गोपनीयता नीति अद्यतन अधिसूचना स्क्रीन" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Claude उपयोगकर्ताओं के लिए Anthropic के अद्यतन उपभोक्ता नियमों और गोपनीयता नीति में क्या मुख्य परिवर्तन पेश किए गए हैं?" answer: "Anthropic अपने उपभोक्ता नियमों और गोपनीयता नीति में महत्वपूर्ण अपडेट ला रहा है, जो मुख्य रूप से उपयोगकर्ताओं को Claude AI मॉडल को बेहतर बनाने के लिए उनके डेटा का उपयोग करने की अनुमति देने का विकल्प प्रदान करने पर केंद्रित है। जब यह सेटिंग सक्षम की जाती है, तो Free, Pro, और Max खातों से, जिसमें Claude Code सत्र भी शामिल हैं, का डेटा नए मॉडल को प्रशिक्षित करने में योगदान देगा। इसका उद्देश्य कोडिंग, विश्लेषण और तर्क जैसे क्षेत्रों में मॉडल की सुरक्षा, सटीकता और क्षमताओं को बढ़ाना है। इसके अतिरिक्त, जो उपयोगकर्ता ऑप्ट-इन करते हैं, उनके लिए डेटा प्रतिधारण अवधि को पाँच साल तक बढ़ाया जाएगा। इसके विपरीत, यदि उपयोगकर्ता मॉडल प्रशिक्षण के लिए ऑप्ट-इन नहीं करना चुनते हैं, तो मौजूदा 30-दिन की डेटा प्रतिधारण नीति प्रभावी रहेगी। ये परिवर्तन विशिष्ट उद्यम समझौतों या API उपयोग के तहत वाणिज्यिक उपयोगकर्ताओं को प्रभावित नहीं करते हैं, विभिन्न उपयोगकर्ता खंडों के लिए अलग-अलग नीतियों को सुनिश्चित करते हैं।"
- question: "इन नई नीति अपडेट से कौन सी Claude सेवाएँ और उपयोगकर्ता प्रकार प्रभावित होंगे, और कौन से नहीं?" answer: "अद्यतन उपभोक्ता नियम और गोपनीयता नीति विशेष रूप से Anthropic के Claude Free, Pro, और Max योजनाओं पर व्यक्तिगत उपयोगकर्ताओं पर लागू होती है। इसमें वे स्थितियाँ शामिल हैं जहाँ उपयोगकर्ता इन उपभोक्ता योजनाओं से जुड़े खातों के माध्यम से Claude Code के साथ इंटरैक्ट करते हैं। हालांकि, यह समझना महत्वपूर्ण है कि ये अपडेट Anthropic के वाणिज्यिक नियमों के तहत संचालित सेवाओं तक विस्तारित नहीं होते हैं। इसका मतलब है कि Claude for Work (जिसमें टीम और एंटरप्राइज योजनाएँ शामिल हैं), Claude for Government, Claude for Education, और सभी API उपयोग – चाहे सीधे या Amazon Bedrock या Google Cloud के Vertex AI जैसे तीसरे पक्ष के प्लेटफार्मों के माध्यम से – इन नए उपभोक्ता-केंद्रित नीति परिवर्तनों से स्पष्ट रूप से बाहर रखे गए हैं। वाणिज्यिक उपयोगकर्ता और API इंटीग्रेटर अपने मौजूदा समझौतों के तहत काम करना जारी रखेंगे, जिनमें अलग-अलग गोपनीयता और डेटा हैंडलिंग प्रावधान हैं।"
- question: "Anthropic ये बदलाव क्यों कर रहा है, खासकर मॉडल प्रशिक्षण और विस्तारित प्रतिधारण के लिए डेटा उपयोग के संबंध में?" answer: "Anthropic का कहना है कि ये परिवर्तन Claude जैसे बड़े भाषा मॉडल की क्षमता, सुरक्षा और उपयोगिता को लगातार बेहतर बनाने की मूलभूत आवश्यकता से प्रेरित हैं। वास्तविक दुनिया के इंटरैक्शन अमूल्य डेटा संकेत प्रदान करते हैं जो मॉडल को यह सीखने में मदद करते हैं कि कौन से प्रतिक्रियाएँ सबसे सहायक, सटीक और सुरक्षित हैं। उदाहरण के लिए, Claude के साथ कोड को डीबग करने वाले डेवलपर्स भविष्य की कोडिंग क्षमताओं को बेहतर बनाने के लिए महत्वपूर्ण अंतर्दृष्टि प्रदान करते हैं। विस्तारित पाँच साल का डेटा प्रतिधारण, विशेष रूप से उन उपयोगकर्ताओं के लिए जो ऑप्ट-इन करते हैं, AI के लंबे विकास चक्रों का समर्थन करने के लिए डिज़ाइन किया गया है, जो अधिक स्थिर मॉडल अपग्रेड के लिए डेटा स्थिरता सुनिश्चित करता है और आंतरिक क्लासिफायरियर की प्रभावशीलता को बढ़ाता है जो लंबी अवधि में दुरुपयोग या स्पैम जैसे हानिकारक उपयोग पैटर्न का पता लगाते हैं और उन्हें कम करते हैं, अंततः Claude को सभी के लिए सुरक्षित बनाते हैं।"
- question: "इन नीति अपडेट और उनकी डेटा प्राथमिकताओं के संबंध में मौजूदा और नए Claude उपयोगकर्ताओं को कौन से कदम उठाने होंगे?" answer: "मौजूदा Claude उपयोगकर्ताओं को एक इन-ऐप अधिसूचना प्राप्त होगी जो उन्हें अपडेट की समीक्षा करने और यह तय करने के लिए प्रेरित करेगी कि उनकी चैट और कोडिंग सत्रों का उपयोग मॉडल सुधार के लिए करने की अनुमति दी जाए या नहीं। उपयोगकर्ताओं के पास इस चयन को करने के लिए 8 अक्टूबर, 2025 तक का समय है। यदि वे पहले स्वीकार करना चुनते हैं, तो नई नीतियाँ नए या फिर से शुरू किए गए चैट पर तुरंत लागू होंगी। समय सीमा के बाद, Claude का उपयोग जारी रखने के लिए चयन करना अनिवार्य है। नए उपयोगकर्ताओं को प्रारंभिक साइनअप प्रक्रिया के हिस्से के रूप में यह विकल्प प्रस्तुत किया जाएगा। चाहे कोई नया हो या मौजूदा उपयोगकर्ता, प्राथमिकता को Claude इंटरफ़ेस के भीतर समर्पित गोपनीयता सेटिंग्स के माध्यम से किसी भी समय संशोधित किया जा सकता है, जो व्यक्तिगत डेटा उपयोग पर निरंतर नियंत्रण प्रदान करता है और पारदर्शिता सुनिश्चित करता है।"
- question: "यदि कोई उपयोगकर्ता शुरू में मॉडल प्रशिक्षण के लिए डेटा की अनुमति देता है, लेकिन बाद में अपना मन बदलता है और ऑप्ट-आउट करने का निर्णय लेता है तो क्या होगा?" answer: "Anthropic इस बात पर जोर देता है कि उपयोगकर्ताओं का अपनी डेटा प्राथमिकताओं पर पूरा नियंत्रण होता है और वे अपनी गोपनीयता सेटिंग्स के माध्यम से किसी भी समय अपने चयन को अपडेट कर सकते हैं। यदि कोई उपयोगकर्ता शुरू में मॉडल प्रशिक्षण के लिए ऑप्ट-इन करता है और बाद में इस सेटिंग को बंद करने का निर्णय लेता है, तो Claude के साथ कोई भी नई चैट और कोडिंग सत्र भविष्य के मॉडल प्रशिक्षण के लिए उपयोग नहीं किए जाएंगे। हालांकि, यह ध्यान रखना महत्वपूर्ण है कि पहले से पूरे हो चुके मॉडल प्रशिक्षण और जारी किए गए मॉडल से डेटा में उनकी पिछली बातचीत का डेटा अभी भी हो सकता है। फिर भी, Anthropic ऑप्ट-आउट प्राथमिकता पंजीकृत होने के बाद किसी भी भविष्य के मॉडल प्रशिक्षण पुनरावृति में पहले से संग्रहीत चैट और कोडिंग सत्रों के उपयोग को रोकने के लिए प्रतिबद्ध है, जिससे डेटा उपयोग और गोपनीयता के लिए उपयोगकर्ता की अद्यतन पसंद का सम्मान होता है।"
- question: "Anthropic इन नई नीतियों के साथ उपयोगकर्ता गोपनीयता और डेटा सुरक्षा कैसे सुनिश्चित करता है, खासकर विस्तारित प्रतिधारण के साथ?" answer: "उपयोगकर्ता गोपनीयता की सुरक्षा के लिए, Anthropic उन्नत उपकरणों और स्वचालित प्रक्रियाओं का एक संयोजन नियोजित करता है जो संवेदनशील डेटा को मॉडल प्रशिक्षण के लिए उपयोग किए जाने से पहले फ़िल्टर या अस्पष्ट करने के लिए डिज़ाइन किए गए हैं, यहां तक कि ऑप्ट-इन किए गए उपयोगकर्ताओं के लिए विस्तारित प्रतिधारण अवधि के साथ भी। कंपनी स्पष्ट रूप से बताती है कि वह उपयोगकर्ता डेटा को तीसरे पक्ष को नहीं बेचती है, जो गोपनीयता के प्रति अपनी प्रतिबद्धता को मजबूत करती है। इसके अलावा, उपयोगकर्ता नियंत्रण बनाए रखते हैं: एक बातचीत को हटाने से यह सुनिश्चित होता है कि इसका उपयोग भविष्य के मॉडल प्रशिक्षण के लिए नहीं किया जाएगा, और ऑप्ट-इन सेटिंग को बदलने से नए चैट का उपयोग होने से रोका जा सकता है। इन उपायों का उद्देश्य डेटा-संचालित मॉडल सुधार की आवश्यकता को कठोर गोपनीयता सुरक्षा के साथ संतुलित करना है, जो AI विकास जीवनचक्र के दौरान उपयोगकर्ता विश्वास और डेटा सुरक्षा सुनिश्चित करता है। यह व्यापक दृष्टिकोण Anthropic के जिम्मेदार AI प्रथाओं के प्रति समर्पण को रेखांकित करता है।"
Anthropic ने Claude के उपभोक्ता नियमों और गोपनीयता नीति में महत्वपूर्ण अपडेट जारी किए
Anthropic, एक अग्रणी AI अनुसंधान कंपनी ने अपने Claude AI मॉडल के उपयोगकर्ताओं के लिए अपने उपभोक्ता नियमों और गोपनीयता नीति में महत्वपूर्ण अपडेट की घोषणा की है। ये परिवर्तन, जो 28 अगस्त, 2025 से प्रभावी होंगे, उपयोगकर्ताओं को उनके डेटा पर अधिक नियंत्रण प्रदान करने और साथ ही Anthropic को अधिक सक्षम और सुरक्षित AI सिस्टम विकसित करने में सक्षम बनाने के लिए डिज़ाइन किए गए हैं। इन अपडेट का मूल मॉडल प्रशिक्षण में डेटा उपयोग के लिए एक ऑप्ट-इन तंत्र और उन लोगों के लिए विस्तारित डेटा प्रतिधारण अवधि पर केंद्रित है जो भाग लेते हैं।
यह कदम कृत्रिम बुद्धिमत्ता के विकास में अधिक पारदर्शिता और उपयोगकर्ता एजेंसी की दिशा में एक बढ़ते उद्योग के रुझान को दर्शाता है। उपयोगकर्ताओं को सक्रिय रूप से यह चुनने की अनुमति देकर कि उनकी बातचीत Claude के सीखने में योगदान करती है या नहीं, Anthropic का लक्ष्य एक सहयोगी वातावरण को बढ़ावा देना है जो व्यक्तिगत उपयोगकर्ताओं और व्यापक AI पारिस्थितिकी तंत्र दोनों को लाभान्वित करता है। उपभोक्ता-केंद्रित नीतियों का यह रणनीतिक विकास जिम्मेदार AI विकास और उपयोगकर्ता विश्वास के प्रति कंपनी की प्रतिबद्धता को रेखांकित करता है।
उपयोगकर्ता-संचालित अंतर्दृष्टि और सुरक्षा उपायों के साथ Claude को बेहतर बनाना
Anthropic की अद्यतन नीति में प्राथमिक परिवर्तन मॉडल सुधार के लिए डेटा उपयोग के संबंध में उपयोगकर्ता के विकल्प का परिचय है। Claude के Free, Pro, और Max योजनाओं पर उपयोगकर्ता, जिसमें संबंधित खातों से Claude Code का लाभ उठाने वाले भी शामिल हैं, के पास अब अपने डेटा को भविष्य के Claude मॉडल के प्रशिक्षण में योगदान करने की अनुमति देने का विकल्प होगा। इस भागीदारी को अधिक मजबूत और बुद्धिमान AI के निर्माण की दिशा में एक महत्वपूर्ण कदम के रूप में प्रस्तुत किया गया है।
इस डेटा उपयोग के लिए ऑप्ट-इन करने से कई प्रत्यक्ष लाभ मिलते हैं। Anthropic के अनुसार, उपयोगकर्ता इंटरैक्शन मूल्यवान वास्तविक दुनिया की अंतर्दृष्टि प्रदान करते हैं जो मॉडल सुरक्षा प्रोटोकॉल को परिष्कृत करने में मदद करते हैं, जिससे हानिकारक सामग्री का पता लगाने वाले सिस्टम अधिक सटीक और हानिरहित बातचीत को चिह्नित करने की कम संभावना रखते हैं। सुरक्षा से परे, उपयोगकर्ता डेटा से Claude की मुख्य क्षमताओं, जैसे कोडिंग दक्षता, विश्लेषणात्मक तर्क, और जटिल समस्या-समाधान कौशल में उल्लेखनीय सुधार होने की उम्मीद है। यह फीडबैक लूप बड़े भाषा मॉडल के निरंतर विकास के लिए आवश्यक है, जिससे सभी के लिए अधिक परिष्कृत और उपयोगी AI उपकरण प्राप्त होते हैं।
इन अपडेट के विशिष्ट दायरे पर ध्यान देना महत्वपूर्ण है। उपभोक्ता-स्तरीय खातों पर लागू होने के बावजूद, ये नीतिगत परिवर्तन स्पष्ट रूप से विस्तारित नहीं होते हैं Anthropic के वाणिज्यिक नियमों द्वारा शासित सेवाओं तक। इसमें Claude for Work, Claude for Government, Claude for Education, और सभी API उपयोग शामिल हैं, चाहे सीधे या Amazon Bedrock या Google Cloud के Vertex AI जैसे तीसरे पक्ष के प्लेटफार्मों के माध्यम से। यह अंतर सुनिश्चित करता है कि वाणिज्यिक ग्राहक और उद्यम-स्तरीय भागीदार अपने मौजूदा, अक्सर विशिष्ट, डेटा समझौतों और गोपनीयता ढाँचों को बनाए रखें। Amazon Bedrock AgentCore जैसी सेवाओं का लाभ उठाने वाले उपयोगकर्ताओं के लिए, अलग-अलग समझौते लागू रहते हैं।
आपके विकल्पों को समझना: ऑप्ट-इन और समय सीमाएँ
Anthropic उपयोगकर्ताओं को उनके डेटा पर स्पष्ट नियंत्रण प्रदान करने के लिए प्रतिबद्ध है। नए और मौजूदा दोनों Claude उपयोगकर्ताओं को अपने डेटा-साझाकरण विकल्पों को चुनने के लिए अलग-अलग प्रक्रियाओं का सामना करना पड़ेगा। Claude के लिए साइन अप करने वाले नए उपयोगकर्ताओं को मॉडल प्रशिक्षण के लिए अपनी प्राथमिकता का चयन करने का विकल्प ऑनबोर्डिंग प्रक्रिया के एक अभिन्न अंग के रूप में मिलेगा, जिससे वे शुरुआत से ही अपनी गोपनीयता सेटिंग्स को परिभाषित कर सकेंगे।
मौजूदा उपयोगकर्ताओं के लिए, Anthropic ने इन-ऐप सूचनाओं का एक चरणबद्ध रोलआउट शुरू किया है। ये पॉप-अप विंडो उपयोगकर्ताओं को अद्यतन उपभोक्ता नियमों और गोपनीयता नीति की समीक्षा करने और यह तय करने के लिए प्रेरित करेंगे कि उनके डेटा का उपयोग मॉडल सुधार के लिए करने की अनुमति दी जाए या नहीं। उपयोगकर्ताओं के पास 8 अक्टूबर, 2025 तक इस चयन को करने के लिए अनुग्रह अवधि है। यदि कोई मौजूदा उपयोगकर्ता इस समय सीमा से पहले नई नीतियों को स्वीकार करना और ऑप्ट-इन करना चुनता है, तो ये परिवर्तन सभी नए या फिर से शुरू किए गए चैट और कोडिंग सत्रों के लिए तुरंत प्रभावी होंगे। उपयोगकर्ताओं के लिए निर्दिष्ट तिथि तक एक विकल्प चुनना महत्वपूर्ण है, क्योंकि 8 अक्टूबर, 2025 के बाद Claude का निरंतर उपयोग मॉडल प्रशिक्षण सेटिंग पर एक चयन की आवश्यकता होगी। यह सुनिश्चित करता है कि उपयोगकर्ता अपनी गोपनीयता परिदृश्य को आकार देने में सक्रिय रूप से लगे हुए हैं।
महत्वपूर्ण रूप से, उपयोगकर्ता नियंत्रण एक बार का निर्णय नहीं है। Anthropic इस बात पर जोर देता है कि प्राथमिकताओं को Claude इंटरफ़ेस के भीतर समर्पित गोपनीयता सेटिंग्स अनुभाग के माध्यम से किसी भी समय समायोजित किया जा सकता है। यह लचीलापन उनके व्यक्तिगत डेटा के संबंध में चल रहे उपयोगकर्ता स्वायत्तता के प्रति कंपनी की प्रतिबद्धता को रेखांकित करता है।
नीति तुलना: डेटा उपयोग और प्रतिधारण
इन अपडेट के प्रभाव को स्पष्ट करने के लिए, निम्न तालिका नए उपभोक्ता नियमों के तहत मॉडल प्रशिक्षण के लिए डेटा उपयोग के ऑप्ट-इन और ऑप्ट-आउट के बीच मुख्य अंतरों को सारांशित करती है:
| विशेषता | मॉडल प्रशिक्षण के लिए ऑप्ट-इन (नई नीति) | ऑप्ट-आउट (मौजूदा/डिफ़ॉल्ट नीति) |
|---|---|---|
| डेटा उपयोग | मॉडल सुधार और सुरक्षा के लिए उपयोग की जाने वाली नई/फिर से शुरू की गई चैट और कोडिंग सत्र। | मॉडल प्रशिक्षण के लिए उपयोग नहीं की जाने वाली नई/फिर से शुरू की गई चैट और कोडिंग सत्र। |
| डेटा प्रतिधारण अवधि | ऑप्ट-इन किए गए डेटा के लिए 5 साल। | सभी डेटा के लिए 30 दिन। |
| लागू होता है | Claude Free, Pro, Max खाते और Claude Code सत्र। | Claude Free, Pro, Max खाते और Claude Code सत्र। |
| बहिष्करण | वाणिज्यिक नियम, API, Amazon Bedrock, Google Vertex AI सेवाएँ। | वही बहिष्करण। |
दीर्घकालिक AI विकास के लिए रणनीतिक डेटा प्रतिधारण
मॉडल प्रशिक्षण के लिए ऑप्ट-इन के साथ, Anthropic उन उपयोगकर्ताओं के लिए एक विस्तारित डेटा प्रतिधारण अवधि भी पेश कर रहा है जो भाग लेना चुनते हैं। यदि कोई उपयोगकर्ता मॉडल सुधार के लिए अपने डेटा की अनुमति देना चुनता है, तो नए या फिर से शुरू किए गए चैट और कोडिंग सत्रों के लिए प्रतिधारण अवधि को पाँच साल तक बढ़ाया जाएगा। जो उपयोगकर्ता ऑप्ट-इन नहीं करते हैं, उनके लिए मौजूदा 30-दिवसीय डेटा प्रतिधारण अवधि लागू रहेगी। यह विस्तारित प्रतिधारण Claude की प्रॉम्प्ट के जवाबों के बारे में प्रस्तुत प्रतिक्रिया को भी कवर करता है।
पाँच साल की प्रतिधारण अवधि के पीछे का तर्क उन्नत AI विकास की वास्तविकताओं में गहराई से निहित है। बड़े भाषा मॉडल के विकास चक्र अक्सर रिलीज़ से पहले 18 से 24 महीने तक फैले होते हैं। लंबी अवधि में डेटा स्थिरता बनाए रखना अधिक स्थिर और अनुमानित मॉडल बनाने के लिए महत्वपूर्ण है। सुसंगत डेटा मॉडल को समान तरीकों से प्रशिक्षित और परिष्कृत करने की अनुमति देता है, जिससे उपयोगकर्ताओं के लिए सुगम संक्रमण और अपग्रेड होते हैं।
इसके अलावा, विस्तारित प्रतिधारण Anthropic के आंतरिक क्लासिफायरियर – दुरुपयोग, दुर्व्यवहार, स्पैम, और अन्य हानिकारक पैटर्न की पहचान करने और उनका मुकाबला करने के लिए उपयोग की जाने वाली परिष्कृत प्रणालियों – को बेहतर बनाने में महत्वपूर्ण रूप से मदद करता है। ये सुरक्षा तंत्र लंबी अवधि में एकत्र किए गए डेटा से सीखने से अधिक प्रभावी हो जाते हैं, जिससे Claude की सभी के लिए एक सुरक्षित और लाभकारी उपकरण बने रहने की क्षमता बढ़ती है। Anthropic व्यापक AI सुरक्षा चर्चाओं के लिए भी प्रतिबद्ध है, जैसा कि The Anthropic Institute जैसी पहलों द्वारा उजागर किया गया है।
उपयोगकर्ता गोपनीयता की रक्षा के लिए, Anthropic उन्नत उपकरणों और स्वचालित प्रक्रियाओं का एक संयोजन नियोजित करता है जो संवेदनशील डेटा को मॉडल प्रशिक्षण या विश्लेषण के लिए उपयोग किए जाने से पहले फ़िल्टर या अस्पष्ट करने के लिए डिज़ाइन किए गए हैं। कंपनी दृढ़ता से कहती है कि वह उपयोगकर्ता डेटा को तीसरे पक्ष को नहीं बेचती है, जो ऑप्ट-इन किए गए डेटा के लिए विस्तारित प्रतिधारण के साथ भी गोपनीयता के प्रति अपनी प्रतिबद्धता को मजबूत करती है। उपयोगकर्ता ऑप्ट-इन करने के बाद भी अपने डेटा पर नियंत्रण बनाए रखते हैं; एक विशिष्ट बातचीत को हटाने से यह सुनिश्चित होता है कि इसका उपयोग भविष्य के मॉडल प्रशिक्षण के लिए नहीं किया जाएगा।
उपयोगकर्ता सशक्तिकरण और डेटा शासन
Anthropic के अद्यतन उपभोक्ता नियम और गोपनीयता नीति AI विकास के लिए एक उपयोगकर्ता-केंद्रित दृष्टिकोण को रेखांकित करते हैं। मॉडल सुधार में योगदान करने का विकल्प सीधे उपयोगकर्ता के हाथों में रखकर, कंपनी का लक्ष्य अधिक पारदर्शी और सहयोगी संबंध को बढ़ावा देना है। किसी भी समय इन प्राथमिकताओं को संशोधित करने की क्षमता यह सुनिश्चित करती है कि उपयोगकर्ता अपने डेटा की यात्रा पर निरंतर नियंत्रण बनाए रखें।
यदि कोई उपयोगकर्ता शुरू में मॉडल प्रशिक्षण के लिए ऑप्ट-इन करता है, लेकिन बाद में अपना मन बदलता है और ऑप्ट-आउट करने का निर्णय लेता है, तो Anthropic की एक स्पष्ट नीति है। जबकि पहले से पूरे हो चुके मॉडल प्रशिक्षण और जारी किए गए मॉडल में उपयोग किया गया डेटा उन संस्करणों के भीतर अभी भी मौजूद हो सकता है, ऑप्ट-आउट निर्णय के बाद कोई भी नई चैट और कोडिंग सत्र भविष्य के प्रशिक्षण के लिए उपयोग नहीं किए जाएंगे। कंपनी प्राथमिकता अद्यतन होने के बाद किसी भी भविष्य के मॉडल प्रशिक्षण पुनरावृति में पहले से संग्रहीत चैट और कोडिंग सत्रों के उपयोग को बंद करने के लिए प्रतिबद्ध है। यह उपयोगकर्ताओं को उनकी गोपनीयता सेटिंग्स को गतिशील रूप से प्रबंधित करने के लिए एक मजबूत तंत्र प्रदान करता है।
ये अपडेट डेटा-संचालित AI नवाचार की अपार क्षमता को उपयोगकर्ता गोपनीयता और पारदर्शिता के सर्वोपरि महत्व के साथ संतुलित करने की दिशा में एक मापा कदम का प्रतिनिधित्व करते हैं। जैसे-जैसे AI मॉडल दैनिक जीवन में तेजी से एकीकृत हो रहे हैं, ऐसी नीतियां विश्वास बनाने और नैतिक विकास सुनिश्चित करने के लिए महत्वपूर्ण हैं।
अक्सर पूछे जाने वाले प्रश्न
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
अपडेट रहें
नवीनतम AI समाचार अपने इनबॉक्स में पाएं।
