Code Velocity
AI მოდელები

Anthropic Claude: მომხმარებლის პირობებისა და კონფიდენციალურობის პოლიტიკის განახლებები

·5 წუთი კითხვა·Anthropic·ორიგინალი წყარო
გაზიარება
Anthropic Claude-ის მომხმარებლის პირობებისა და კონფიდენციალურობის პოლიტიკის განახლების შეტყობინების ეკრანი

Anthropic აქვეყნებს Claude-ის მომხმარებლის პირობებისა და კონფიდენციალურობის პოლიტიკის ძირითად განახლებებს

Anthropic, ხელოვნური ინტელექტის კვლევითი წამყვანი კომპანია, აცხადებს მნიშვნელოვან განახლებებს Claude AI მოდელების მომხმარებლის პირობებსა და კონფიდენციალურობის პოლიტიკაში. ეს ცვლილებები, რომლებიც ძალაში შედის 2025 წლის 28 აგვისტოს, მიზნად ისახავს მომხმარებლებისთვის მონაცემებზე მეტი კონტროლის მინიჭებას, ამავდროულად Anthropic-ს საშუალებას აძლევს შეიმუშაოს უფრო ქმედითი და უსაფრთხო AI სისტემები. ამ განახლებების ძირითადი ნაწილი ორიენტირებულია მონაცემთა გამოყენების თანხმობის მექანიზმზე მოდელის სწავლებისას და მონაცემთა შენახვის გაფართოებულ ვადაზე მათთვის, ვინც მონაწილეობს.

ეს ნაბიჯი ასახავს ინდუსტრიაში მზარდ ტენდენციას ხელოვნური ინტელექტის განვითარებაში მეტი გამჭვირვალობისა და მომხმარებლის უფლებამოსილებისკენ. მომხმარებლებისთვის აქტიური არჩევანის მიცემით, მონაწილეობს თუ არა მათი ურთიერთქმედება Claude-ის სწავლაში, Anthropic მიზნად ისახავს ხელი შეუწყოს თანამშრომლობით გარემოს, რომელიც სარგებელს მოუტანს როგორც ინდივიდუალურ მომხმარებლებს, ასევე ფართო AI ეკოსისტემას. მომხმარებელზე ორიენტირებული პოლიტიკის ეს სტრატეგიული ევოლუცია ხაზს უსვამს კომპანიის ვალდებულებას პასუხისმგებლიანი AI განვითარებისა და მომხმარებლის ნდობის მიმართ.

Claude-ის გაუმჯობესება მომხმარებლის მიერ მართული ინფორმაციითა და უსაფრთხოების ზომებით

Anthropic-ის განახლებულ პოლიტიკაში ძირითადი ცვლილება არის მომხმარებლის არჩევანის შემოღება მოდელის გაუმჯობესებისთვის მონაცემთა გამოყენებასთან დაკავშირებით. Claude-ის Free, Pro და Max გეგმების მომხმარებლებს, მათ შორის მათ, ვინც იყენებს Claude Code-ს დაკავშირებული ანგარიშებიდან, ახლა ექნებათ შესაძლებლობა, დაუშვან მათი მონაცემების გამოყენება მომავალი Claude მოდელების სწავლებისთვის. ეს მონაწილეობა მოიაზრება, როგორც გადამწყვეტი ნაბიჯი უფრო მყარი და ინტელექტუალური AI-ის შესაქმნელად.

ამ მონაცემთა გამოყენებაზე დათანხმება რამდენიმე პირდაპირ სარგებელს გვთავაზობს. Anthropic-ის მიხედვით, მომხმარებლის ურთიერთქმედებები იძლევა ღირებულ რეალურ ინფორმაციას, რომელიც ხელს უწყობს მოდელის უსაფრთხოების პროტოკოლების დახვეწას, რაც მავნე შინაარსის აღმოსაჩენ სისტემებს უფრო ზუსტს ხდის და ნაკლებად მიდრეკილს უვნებელი საუბრების მონიშვნისკენ. უსაფრთხოების გარდა, მომხმარებლის მონაცემები მნიშვნელოვნად გააუმჯობესებს Claude-ის ძირითად შესაძლებლობებს, როგორიცაა კოდირების ცოდნა, ანალიტიკური მსჯელობა და რთული პრობლემების გადაჭრის უნარები. ეს უკუკავშირის ციკლი აუცილებელია დიდი ენობრივი მოდელების უწყვეტი ევოლუციისთვის, რაც იწვევს ყველასთვის უფრო დახვეწილ და სასარგებლო AI ინსტრუმენტებს.

მნიშვნელოვანია აღინიშნოს ამ განახლებების კონკრეტული ფარგლები. მიუხედავად იმისა, რომ ისინი ვრცელდება სამომხმარებლო დონის ანგარიშებზე, ეს პოლიტიკის ცვლილებები მკაფიოდ არ ვრცელდება Anthropic-ის კომერციული პირობებით რეგულირებულ სერვისებზე. ეს მოიცავს Claude for Work-ს (გუნდური და კორპორატიული გეგმების ჩათვლით), Claude for Government-ს, Claude for Education-ს და API-ის ყველა გამოყენებას, იქნება ეს პირდაპირ თუ მესამე მხარის პლატფორმების მეშვეობით, როგორიცაა Amazon Bedrock ან Google Cloud-ის Vertex AI. ეს განსხვავება უზრუნველყოფს, რომ კომერციული კლიენტები და საწარმოს დონის პარტნიორები ინარჩუნებენ მათ არსებულ, ხშირად მორგებულ, მონაცემთა შეთანხმებებსა და კონფიდენციალურობის ჩარჩოებს. მომხმარებლებისთვის, რომლებიც იყენებენ ისეთ სერვისებს, როგორიცაა Amazon Bedrock AgentCore, ცალკე შეთანხმებები რჩება ძალაში.

თქვენი არჩევანის მართვა: თანხმობა და ვადები

Anthropic ვალდებულია მომხმარებლებს მიაწოდოს მონაცემებზე მკაფიო კონტროლი. როგორც ახალი, ასევე არსებული Claude-ის მომხმარებლები შეხვდებიან მონაცემთა გაზიარების არჩევანის გაკეთების განსხვავებულ პროცესებს. Claude-ზე რეგისტრირებული ახალი მომხმარებლები იპოვიან მოდელის სწავლების უპირატესობის არჩევის ვარიანტს, როგორც ჩართვის პროცესის განუყოფელ ნაწილს, რაც მათ საშუალებას მისცემს, თავიდანვე განსაზღვრონ თავიანთი კონფიდენციალურობის პარამეტრები.

არსებული მომხმარებლებისთვის Anthropic-მა დაიწყო აპლიკაციაში შეტყობინებების ეტაპობრივი გამოშვება. ეს ამომხტარი ფანჯრები მომხმარებლებს მოუწოდებს, გადახედონ განახლებულ მომხმარებლის პირობებსა და კონფიდენციალურობის პოლიტიკას და გადაწყვიტონ, დაუშვან თუ არა მათი მონაცემების გამოყენება მოდელის გასაუმჯობესებლად. მომხმარებლებს აქვთ ვადა 2025 წლის 8 ოქტომბრამდე, რათა გააკეთონ არჩევანი. თუ არსებული მომხმარებელი გადაწყვეტს მიიღოს ახალი პოლიტიკა და თანხმობა განაცხადოს ამ ვადის გასვლამდე, ეს ცვლილებები დაუყოვნებლივ ამოქმედდება ყველა ახალ ან განახლებულ ჩეთსა და კოდირების სესიაზე. მომხმარებლებისთვის გადამწყვეტია, რომ არჩევანი გააკეთონ მითითებულ თარიღამდე, რადგან Claude-ის შემდგომი გამოყენება 2025 წლის 8 ოქტომბრის შემდეგ, მოითხოვს მოდელის სწავლების პარამეტრის არჩევას. ეს უზრუნველყოფს, რომ მომხმარებლები აქტიურად მონაწილეობენ თავიანთი კონფიდენციალურობის ლანდშაფტის ფორმირებაში.

მნიშვნელოვანია, რომ მომხმარებლის კონტროლი არ არის ერთჯერადი გადაწყვეტილება. Anthropic ხაზს უსვამს, რომ პრეფერენციების მორგება შესაძლებელია ნებისმიერ დროს Claude-ის ინტერფეისში არსებული სპეციალური კონფიდენციალურობის პარამეტრების განყოფილების მეშვეობით. ეს მოქნილობა ხაზს უსვამს კომპანიის ვალდებულებას მომხმარებლის მუდმივი ავტონომიის მიმართ მათი პერსონალური მონაცემების შესახებ.

პოლიტიკის შედარება: მონაცემთა გამოყენება და შენახვა

ამ განახლებების გავლენის გასარკვევად, შემდეგი ცხრილი აჯამებს ძირითად განსხვავებებს მონაცემთა გამოყენებაზე თანხმობასა და უარს შორის მოდელის სწავლებისთვის ახალი მომხმარებლის პირობების მიხედვით:

მახასიათებელითანხმობა მოდელის სწავლებაზე (ახალი პოლიტიკა)უარის თქმა (არსებული/ნაგულისხმევი პოლიტიკა)
მონაცემთა გამოყენებაახალი/განახლებული ჩეთები და კოდირების სესიები გამოიყენება მოდელის გაუმჯობესებისა და უსაფრთხოებისთვის.ახალი/განახლებული ჩეთები და კოდირების სესიები არ გამოიყენება მოდელის სწავლისთვის.
მონაცემთა შენახვის ვადა5 წელი მონაცემებისთვის, რომლებზეც თანხმობაა გაცემული.30 დღე ყველა მონაცემისთვის.
ვრცელდებაClaude Free, Pro, Max ანგარიშებზე და Claude Code სესიებზე.Claude Free, Pro, Max ანგარიშებზე და Claude Code სესიებზე.
გამონაკლისებიკომერციული პირობები, API, Amazon Bedrock, Google Vertex AI სერვისები.იგივე გამონაკლისები.

მონაცემთა სტრატეგიული შენახვა გრძელვადიანი AI განვითარებისთვის

მოდელის სწავლებაზე თანხმობასთან ერთად, Anthropic ასევე აწესებს მონაცემთა შენახვის გაფართოებულ ვადას იმ მომხმარებლებისთვის, რომლებიც მონაწილეობას ირჩევენ. თუ მომხმარებელი თანხმობას აცხადებს მისი მონაცემების გამოყენებაზე მოდელის გასაუმჯობესებლად, ახალი ან განახლებული ჩეთებისა და კოდირების სესიების შენახვის ვადა ხუთ წლამდე გაგრძელდება. მომხმარებლებისთვის, რომლებიც არ თანხმდებიან, მონაცემთა შენახვის არსებული 30-დღიანი ვადა კვლავ ძალაში იქნება. ეს გაფართოებული შენახვა ასევე მოიცავს უკუკავშირს, რომელიც წარმოდგენილია Claude-ის პასუხებზე მოთხოვნებზე.

ხუთწლიანი შენახვის პერიოდის საფუძველი ღრმად არის ჩადებული მოწინავე AI განვითარების რეალობებში. დიდი ენობრივი მოდელები გადიან განვითარების ციკლებს, რომლებიც ხშირად 18-დან 24 თვემდე გრძელდება გამოშვებამდე. მონაცემთა თანმიმდევრულობის შენარჩუნება უფრო ხანგრძლივი პერიოდის განმავლობაში სასიცოცხლოდ მნიშვნელოვანია უფრო სტაბილური და პროგნოზირებადი მოდელების შესაქმნელად. თანმიმდევრული მონაცემები საშუალებას აძლევს მოდელებს ისწავლონ და დაიხვეწონ მსგავსი გზებით, რაც მომხმარებლებისთვის უფრო გლუვ გადასვლებსა და განახლებებს იწვევს.

გარდა ამისა, გაფართოებული შენახვა მნიშვნელოვნად ეხმარება Anthropic-ის შიდა კლასიფიკატორების გაუმჯობესებას – დახვეწილ სისტემებს, რომლებიც გამოიყენება არასწორი გამოყენების, ბოროტად გამოყენების, სპამის და სხვა მავნე ნიმუშების იდენტიფიცირებისა და წინააღმდეგობისთვის. ეს უსაფრთხოების მექანიზმები უფრო ეფექტური ხდება მონაცემებისგან სწავლის გზით, რომლებიც გროვდება ხანგრძლივი დროის განმავლობაში, რაც აუმჯობესებს Claude-ის შესაძლებლობას, დარჩეს უსაფრთხო და სასარგებლო ინსტრუმენტად ყველასთვის. Anthropic ასევე ერთგულია AI უსაფრთხოების უფრო ფართო განხილვების, რაც ხაზგასმულია ისეთი ინიციატივებით, როგორიცაა The Anthropic Institute.

მომხმარებლის კონფიდენციალურობის დასაცავად, Anthropic იყენებს მოწინავე ხელსაწყოებისა და ავტომატიზირებული პროცესების კომბინაციას, რომლებიც შექმნილია მგრძნობიარე მონაცემების გასაფილტრად ან დასაბუნდოვნად, სანამ ის გამოყენებული იქნება მოდელის სწავლის ან ანალიზისთვის. კომპანია მკაფიოდ აცხადებს, რომ არ ყიდის მომხმარებლის მონაცემებს მესამე პირებზე, რითაც აძლიერებს თავის ვალდებულებას კონფიდენციალურობის მიმართ, თუნდაც გაფართოებული შენახვის პერიოდში თანხმობა გაცემული მონაცემებისთვის. მომხმარებლები ინარჩუნებენ კონტროლს თავიანთ მონაცემებზე თანხმობის გაცემის შემდეგაც კი; კონკრეტული საუბრის წაშლა უზრუნყოფს, რომ ის არ იქნება გამოყენებული მომავალი მოდელის სწავლისთვის.

მომხმარებლის გაძლიერება და მონაცემთა მმართველობა

Anthropic-ის განახლებული მომხმარებლის პირობები და კონფიდენციალურობის პოლიტიკა ხაზს უსვამს მომხმარებელზე ორიენტირებულ მიდგომას AI განვითარების მიმართ. მოდელის გაუმჯობესებაში წვლილის შეტანის არჩევანის უშუალოდ მომხმარებლისთვის გადაცემით, კომპანია მიზნად ისახავს უფრო გამჭვირვალე და თანამშრომლობითი ურთიერთობის ხელშეწყობას. ამ პრეფერენციების ნებისმიერ დროს შეცვლის შესაძლებლობა უზრუნველყოფს, რომ მომხმარებლები ინარჩუნებენ უწყვეტ კონტროლს მათი მონაცემების მოგზაურობაზე.

თუ მომხმარებელი თავდაპირველად თანახმა იყო მოდელის სწავლებაზე, მაგრამ მოგვიანებით გადაწყვეტს აზრის შეცვლას და უარის თქმას, Anthropic-ს აქვს მკაფიო პოლიტიკა. მიუხედავად იმისა, რომ ადრე დასრულებული მოდელის სწავლის გაშვებებში და უკვე გამოშვებულ მოდელებში გამოყენებული მონაცემები შეიძლება კვლავ არსებობდეს ამ ვერსიებში, არცერთი ახალი ჩეთი და კოდირების სესია უარის თქმის გადაწყვეტილების შემდეგ არ იქნება გამოყენებული მომავალი სწავლებისთვის. კომპანია იღებს ვალდებულებას, შეწყვიტოს ადრე შენახული ჩეთებისა და კოდირების სესიების გამოყენება ნებისმიერ მომავალ მოდელის სწავლის იტერაციაში, მას შემდეგ რაც პრეფერენცია განახლდება. ეს მომხმარებლებს სთავაზობს მყარ მექანიზმს თავიანთი კონფიდენციალურობის პარამეტრების დინამიურად მართვისთვის.

ეს განახლებები წარმოადგენს გაზომილ ნაბიჯს მონაცემებზე დაფუძნებული AI ინოვაციის უზარმაზარი პოტენციალის დაბალანსებისკენ მომხმარებლის კონფიდენციალურობისა და გამჭვირვალობის უმნიშვნელოვანესობასთან. რადგან AI მოდელები სულ უფრო მეტად ინტეგრირდება ყოველდღიურ ცხოვრებაში, მსგავსი პოლიტიკა გადამწყვეტია ნდობის მშენებლობისთვის და ეთიკური განვითარების უზრუნველსაყოფად.

ორიგინალი წყარო

https://www.anthropic.com/news/updates-to-our-consumer-terms

ხშირად დასმული კითხვები

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება