Code Velocity
نماذج الذكاء الاصطناعي

Anthropic Claude: تحديثات شروط المستهلك وسياسة الخصوصية

·5 دقائق للقراءة·Anthropic·المصدر الأصلي
مشاركة
شاشة إشعار تحديث شروط المستهلك وسياسة الخصوصية لـ Anthropic Claude

Anthropic تطرح تحديثات رئيسية لشروط المستهلك وسياسة الخصوصية الخاصة بـ Claude

أعلنت Anthropic، وهي شركة رائدة في أبحاث الذكاء الاصطناعي، عن تحديثات مهمة لشروط المستهلك وسياسة الخصوصية الخاصة بها لمستخدمي نماذج Claude AI. تم تصميم هذه التغييرات، التي تسري اعتبارًا من 28 أغسطس 2025، لتمكين المستخدمين من تحكم أكبر في بياناتهم مع تمكين Anthropic في الوقت نفسه من تطوير أنظمة ذكاء اصطناعي أكثر كفاءة وأمانًا. يتركز جوهر هذه التحديثات على آلية الموافقة لاستخدام البيانات في تدريب النماذج وفترة احتفاظ ممتدة بالبيانات للمشاركين.

تعكس هذه الخطوة اتجاهًا صناعيًا متزايدًا نحو شفافية أكبر وتمكين المستخدم في تطوير الذكاء الاصطناعي. من خلال السماح للمستخدمين بالاختيار الفعلي لما إذا كانت تفاعلاتهم تساهم في تعلم Claude، تهدف Anthropic إلى تعزيز بيئة تعاونية تفيد كل من المستخدمين الأفراد والنظام البيئي الأوسع للذكاء الاصطناعي. يؤكد هذا التطور الاستراتيجي للسياسات الموجهة للمستهلكين التزام الشركة بتطوير الذكاء الاصطناعي المسؤول وثقة المستخدمين.

تعزيز Claude برؤى وحماية مدفوعة من المستخدم

التغيير الأساسي في سياسة Anthropic المحدثة هو إدخال خيار للمستخدم يتعلق باستخدام البيانات لتحسين النموذج. سيتاح للمستخدمين في خطط Claude المجانية (Free) والمحترفة (Pro) والقصوى (Max)، بما في ذلك أولئك الذين يستفيدون من Claude Code من الحسابات المرتبطة، خيار السماح باستخدام بياناتهم للمساهمة في تدريب نماذج Claude المستقبلية. تعتبر هذه المشاركة خطوة حاسمة نحو بناء ذكاء اصطناعي أكثر قوة وذكاءً.

توفر الموافقة على استخدام هذه البيانات العديد من الفوائد المباشرة. وفقًا لـ Anthropic، توفر تفاعلات المستخدمين رؤى قيمة من العالم الحقيقي تساعد في تحسين بروتوكولات سلامة النموذج، مما يجعل أنظمة الكشف عن المحتوى الضار أكثر دقة وأقل عرضة لتصنيف المحادثات البريئة بشكل خاطئ. بالإضافة إلى السلامة، من المتوقع أن تحسن بيانات المستخدم بشكل كبير قدرات Claude الأساسية، مثل كفاءة البرمجة، والاستدلال التحليلي، ومهارات حل المشكلات المعقدة. تعد حلقة التغذية الراجعة هذه ضرورية للتطور المستمر للنماذج اللغوية الكبيرة، مما يؤدي إلى أدوات ذكاء اصطناعي أكثر دقة وفائدة للجميع.

من المهم ملاحظة النطاق المحدد لهذه التحديثات. فبينما تنطبق على الحسابات على مستوى المستهلك، فإن تغييرات السياسة هذه لا تمتد صراحة إلى الخدمات التي تحكمها الشروط التجارية لـ Anthropic. يشمل ذلك Claude for Work، و Claude for Government، و Claude for Education، وجميع استخدامات API، سواء بشكل مباشر أو عبر منصات الطرف الثالث مثل Amazon Bedrock أو Google Cloud’s Vertex AI. يضمن هذا التمييز أن يحتفظ العملاء التجاريون والشركاء على مستوى المؤسسات باتفاقيات البيانات وأطر الخصوصية الحالية الخاصة بهم، والتي غالبًا ما تكون مخصصة. بالنسبة للمستخدمين الذين يستفيدون من خدمات مثل Amazon Bedrock AgentCore، تظل الاتفاقيات المنفصلة سارية.

تصفح اختياراتك: الموافقة والمواعيد النهائية

تلتزم Anthropic بتزويد المستخدمين بتحكم واضح في بياناتهم. سيواجه كل من مستخدمي Claude الجدد والحاليين عمليات مميزة لاتخاذ خياراتهم بشأن مشاركة البيانات. سيجد المستخدمون الجدد الذين يسجلون في Claude خيار تحديد تفضيلهم لتدريب النموذج كجزء لا يتجزأ من عملية الإعداد، مما يسمح لهم بتحديد إعدادات الخصوصية الخاصة بهم منذ البداية.

بالنسبة للمستخدمين الحاليين، بدأت Anthropic في طرح تدريجي للإشعارات داخل التطبيق. ستحث هذه النوافذ المنبثقة المستخدمين على مراجعة شروط المستهلك وسياسة الخصوصية المحدثة وتحديد ما إذا كانوا سيسمحون باستخدام بياناتهم لتحسين النموذج. أمام المستخدمين فترة سماح حتى 8 أكتوبر 2025 لاتخاذ اختيارهم. إذا اختار مستخدم حالي قبول السياسات الجديدة والموافقة قبل هذا الموعد النهائي، فستسري هذه التغييرات فورًا على جميع الدردشات وجلسات البرمجة الجديدة أو المستأنفة. من الأهمية بمكان أن يتخذ المستخدمون خيارًا بحلول التاريخ المحدد، حيث أن الاستخدام المستمر لـ Claude بعد 8 أكتوبر 2025، سيتطلب اختيارًا بخصوص إعداد تدريب النموذج. يضمن هذا أن المستخدمين يشاركون بنشاط في تشكيل مشهد خصوصيتهم.

والأهم من ذلك، أن تحكم المستخدم ليس قرارًا لمرة واحدة. تؤكد Anthropic على أنه يمكن تعديل التفضيلات في أي وقت من خلال قسم إعدادات الخصوصية المخصص ضمن واجهة Claude. يؤكد هذا المرونة التزام الشركة بالاستقلالية المستمرة للمستخدم فيما يتعلق ببياناته الشخصية.

مقارنة السياسات: استخدام البيانات والاحتفاظ بها

لتوضيح تأثير هذه التحديثات، يلخص الجدول التالي الاختلافات الرئيسية بين الموافقة على استخدام البيانات لتدريب النموذج وعدم الموافقة عليه بموجب شروط المستهلك الجديدة:

الميزةالموافقة على تدريب النموذج (السياسة الجديدة)عدم الموافقة (السياسة الحالية/الافتراضية)
استخدام البياناتيتم استخدام الدردشات وجلسات البرمجة الجديدة/المستأنفة لتحسين النموذج وسلامته.الدردشات وجلسات البرمجة الجديدة/المستأنفة لا تستخدم لتدريب النموذج.
فترة الاحتفاظ بالبيانات5 سنوات للبيانات التي تمت الموافقة عليها.30 يومًا لجميع البيانات.
تنطبق علىحسابات Claude Free و Pro و Max وجلسات Claude Code.حسابات Claude Free و Pro و Max وجلسات Claude Code.
الاستثناءاتالشروط التجارية، API، Amazon Bedrock، خدمات Google Vertex AI.نفس الاستثناءات.

الاحتفاظ الاستراتيجي بالبيانات لتطوير الذكاء الاصطناعي على المدى الطويل

إلى جانب الموافقة على تدريب النموذج، تقدم Anthropic أيضًا فترة احتفاظ ممتدة بالبيانات للمستخدمين الذين يختارون المشاركة. إذا اختار المستخدم السماح باستخدام بياناته لتحسين النموذج، فسيتم تمديد فترة الاحتفاظ بالدردشات وجلسات البرمجة الجديدة أو المستأنفة إلى خمس سنوات. بالنسبة للمستخدمين الذين لا يوافقون على ذلك، ستستمر فترة الاحتفاظ بالبيانات الحالية لمدة 30 يومًا في التطبيق. يغطي هذا الاحتفاظ الممتد أيضًا الملاحظات المقدمة حول استجابات Claude للمطالبات.

المنطق وراء فترة الاحتفاظ بالبيانات لمدة خمس سنوات متأصل بعمق في واقع تطوير الذكاء الاصطناعي المتقدم. تخضع النماذج اللغوية الكبيرة لدورات تطوير غالبًا ما تمتد من 18 إلى 24 شهرًا قبل الإصدار. يعد الحفاظ على اتساق البيانات على مدى فترات أطول أمرًا حيويًا لإنشاء نماذج أكثر استقرارًا ويمكن التنبؤ بها. تسمح البيانات المتسقة بتدريب النماذج وتحسينها بطرق مماثلة، مما يؤدي إلى انتقالات وترقيات أكثر سلاسة للمستخدمين.

علاوة على ذلك، يساعد الاحتفاظ الممتد بشكل كبير في تحسين مصنفات Anthropic الداخلية – وهي الأنظمة المتطورة المستخدمة لتحديد ومواجهة سوء الاستخدام، والبريد العشوائي، وأنماط الاستخدام الضارة الأخرى. تصبح آليات السلامة هذه أكثر فعالية من خلال التعلم من البيانات المجمعة على مدى فترات طويلة، مما يعزز قدرة Claude على البقاء أداة آمنة ومفيدة للجميع. تلتزم Anthropic أيضًا بمناقشات أوسع حول سلامة الذكاء الاصطناعي، كما أبرزتها مبادرات مثل The Anthropic Institute.

لحماية خصوصية المستخدم، تستخدم Anthropic مجموعة من الأدوات المتقدمة والعمليات الآلية لتصفية أو إخفاء البيانات الحساسة قبل استخدامها لأي تدريب أو تحليل للنموذج. تؤكد الشركة بشكل قاطع أنها لا تبيع بيانات المستخدم لأطراف ثالثة، مما يعزز التزامها بالخصوصية حتى مع الاحتفاظ الممتد للبيانات التي تمت الموافقة عليها. يحتفظ المستخدمون بالتحكم في بياناتهم حتى بعد الموافقة؛ حذف محادثة معينة يضمن عدم استخدامها لتدريب النموذج في المستقبل.

تمكين المستخدم وحوكمة البيانات

تؤكد شروط المستهلك وسياسة الخصوصية المحدثة من Anthropic على نهج يركز على المستخدم في تطوير الذكاء الاصطناعي. من خلال وضع خيار المساهمة في تحسين النموذج مباشرة في أيدي المستخدم، تهدف الشركة إلى تعزيز علاقة أكثر شفافية وتعاونًا. تضمن القدرة على تعديل هذه التفضيلات في أي وقت أن يحتفظ المستخدمون بالتحكم المستمر في مسار بياناتهم.

إذا وافق المستخدم في البداية على تدريب النموذج ولكنه قرر لاحقًا تغيير رأيه وإلغاء الاشتراك، فإن لدى Anthropic سياسة واضحة. فبينما قد تظل البيانات المستخدمة في عمليات تدريب النموذج التي اكتملت مسبقًا والنماذج التي تم إصدارها بالفعل موجودة ضمن تلك الإصدارات، فإن أي دردشات وجلسات برمجة جديدة بعد قرار إلغاء الاشتراك لن تستخدم للتدريب في المستقبل. تلتزم الشركة بوقف استخدام الدردشات وجلسات البرمجة المخزنة مسبقًا في أي تكرارات تدريب نموذج مستقبلية بمجرد تحديث التفضيل. يوفر هذا آلية قوية للمستخدمين لإدارة إعدادات الخصوصية الخاصة بهم ديناميكيًا.

تمثل هذه التحديثات خطوة مدروسة نحو الموازنة بين الإمكانات الهائلة لابتكار الذكاء الاصطناعي القائم على البيانات والأهمية القصوى لخصوصية المستخدم وشفافيته. مع تزايد دمج نماذج الذكاء الاصطناعي في الحياة اليومية، تعد سياسات كهذه حاسمة لبناء الثقة وضمان التنمية الأخلاقية.

الأسئلة الشائعة

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

ابقَ على اطلاع

احصل على آخر أخبار الذكاء الاصطناعي في بريدك.

مشاركة