Code Velocity
مدل‌های هوش مصنوعی

به‌روزرسانی‌های Anthropic Claude: شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی

·5 دقیقه مطالعه·Anthropic·منبع اصلی
اشتراک‌گذاری
صفحه اعلان به‌روزرسانی شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی Anthropic Claude

title: "به‌روزرسانی‌های Anthropic Claude: شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "fa" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "مدل‌های هوش مصنوعی" keywords:

  • Anthropic
  • 'هوش مصنوعی Claude'
  • 'شرایط مصرف‌کننده'
  • 'سیاست حفظ حریم خصوصی'
  • 'استفاده از داده'
  • 'آموزش مدل'
  • 'ایمنی هوش مصنوعی'
  • 'نگهداری داده'
  • 'ترجیحات کاربر'
  • 'توسعه هوش مصنوعی'
  • 'سیاست LLM'
  • 'شفافیت' meta_description: "Anthropic به‌روزرسانی‌های کلیدی را برای شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی Claude اعلام می‌کند که به کاربران کنترل بیشتری بر استفاده از داده‌ها برای بهبود مدل می‌دهد و نگهداری داده‌ها را برای ایمنی و توسعه تمدید می‌کند." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "صفحه اعلان به‌روزرسانی شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "تغییرات اصلی معرفی شده در به‌روزرسانی شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی Anthropic برای کاربران Claude چیست؟" answer: "Anthropic در حال اجرای به‌روزرسانی‌های قابل توجهی برای شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی خود است که عمدتاً بر توانمندسازی کاربران با انتخاب اجازه استفاده از داده‌هایشان برای بهبود مدل‌های هوش مصنوعی Claude متمرکز است. هنگامی که این تنظیم فعال شود، داده‌های حساب‌های Free، Pro و Max، از جمله جلسات Claude Code، به آموزش مدل‌های جدید کمک خواهند کرد. هدف این کار افزایش ایمنی، دقت و قابلیت‌های مدل در زمینه‌هایی مانند کدنویسی، تحلیل و استدلال است. علاوه بر این، برای کاربرانی که به این گزینه رضایت می‌دهند (opt-in)، دوره نگهداری داده‌ها به پنج سال تمدید خواهد شد. برعکس، اگر کاربران تصمیم بگیرند که به آموزش مدل رضایت ندهند (opt-out)، سیاست نگهداری داده‌های 30 روزه فعلی پابرجا خواهد ماند. این تغییرات بر کاربران تجاری تحت قراردادهای سازمانی خاص یا استفاده از API تأثیری نمی‌گذارند و سیاست‌های متمایزی را برای بخش‌های مختلف کاربران تضمین می‌کنند."
  • question: "کدام خدمات Claude و انواع کاربران تحت تأثیر این به‌روزرسانی‌های سیاست جدید قرار می‌گیرند و کدامیک نه؟" answer: "به‌روزرسانی شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی به‌طور خاص برای کاربران انفرادی برنامه‌های Free، Pro و Max Anthropic Claude اعمال می‌شود. این شامل مواردی است که کاربران با Claude Code از طریق حساب‌های مرتبط با این برنامه‌های مصرف‌کننده تعامل دارند. با این حال، درک این نکته حیاتی است که این به‌روزرسانی‌ها شامل خدماتی که تحت شرایط تجاری Anthropic فعالیت می‌کنند، نمی‌شود. این بدان معناست که Claude for Work (شامل برنامه‌های Team و Enterprise)، Claude for Government، Claude for Education و تمام موارد استفاده از API – چه به صورت مستقیم و چه از طریق پلتفرم‌های شخص ثالث مانند Amazon Bedrock یا Vertex AI گوگل کلود – صراحتاً از این تغییرات سیاست جدید متمرکز بر مصرف‌کننده مستثنی هستند. کاربران تجاری و یکپارچه‌سازان API همچنان تحت توافق‌نامه‌های موجود خود فعالیت خواهند کرد که دارای مفاد حفظ حریم خصوصی و مدیریت داده جداگانه‌ای هستند."
  • question: "چرا Anthropic این تغییرات را اعمال می‌کند، به ویژه در مورد استفاده از داده برای آموزش مدل و نگهداری طولانی‌تر داده‌ها؟" answer: "Anthropic اعلام می‌کند که این تغییرات ناشی از نیاز اساسی برای بهبود مستمر قابلیت، ایمنی و کاربرد مدل‌های زبان بزرگ مانند Claude است. تعاملات دنیای واقعی سیگنال‌های داده‌ای ارزشمندی را فراهم می‌کنند که به مدل‌ها کمک می‌کنند تا یاد بگیرند کدام پاسخ‌ها مفیدتر، دقیق‌تر و ایمن‌تر هستند. به عنوان مثال، توسعه‌دهندگانی که کدها را با Claude اشکال‌زدایی می‌کنند، بینش‌های حیاتی را برای بهبود قابلیت‌های کدنویسی آینده ارائه می‌دهند. نگهداری طولانی‌تر داده‌ها به مدت پنج سال، به‌طور خاص برای کاربرانی که رضایت می‌دهند (opt-in)، برای پشتیبانی از چرخه‌های توسعه طولانی هوش مصنوعی طراحی شده است، تا سازگاری داده‌ها را برای ارتقاء پایدارتر مدل‌ها تضمین کند و اثربخشی طبقه‌بندی‌کننده‌های داخلی را که الگوهای استفاده مضر مانند سوءاستفاده یا اسپم را در طول دوره‌های طولانی‌تر شناسایی و کاهش می‌دهند، افزایش دهد، که در نهایت Claude را برای همه ایمن‌تر می‌کند."
  • question: "کاربران فعلی و جدید Claude در رابطه با این به‌روزرسانی‌های سیاست و ترجیحات داده‌ای خود چه اقداماتی باید انجام دهند؟" answer: "کاربران فعلی Claude یک اعلان درون‌برنامه‌ای دریافت خواهند کرد که از آن‌ها می‌خواهد به‌روزرسانی‌ها را بررسی کرده و در مورد اینکه آیا اجازه می‌دهند از چت‌ها و جلسات کدنویسی آن‌ها برای بهبود مدل استفاده شود، تصمیم‌گیری کنند. کاربران تا 8 اکتبر 2025 فرصت دارند تا این انتخاب را انجام دهند. اگر زودتر قبول کنند، سیاست‌های جدید بلافاصله برای چت‌های جدید یا از سر گرفته شده اعمال می‌شود. پس از ضرب‌الاجل، انتخاب یک گزینه برای ادامه استفاده از Claude اجباری است. کاربران جدید این انتخاب را به عنوان بخشی از فرآیند ثبت‌نام اولیه خواهند داشت. صرف نظر از اینکه کاربر جدید یا فعلی باشد، ترجیح را می‌توان در هر زمان از طریق تنظیمات حریم خصوصی اختصاصی در رابط کاربری Claude تغییر داد و کنترل مداوم بر استفاده از داده‌های شخصی و تضمین شفافیت را ارائه می‌دهد."
  • question: "چه اتفاقی می‌افتد اگر کاربری ابتدا اجازه استفاده از داده‌ها برای آموزش مدل را بدهد اما بعداً تصمیم بگیرد که نظر خود را تغییر داده و از این گزینه انصراف دهد (opt-out)؟" answer: "Anthropic تاکید می‌کند که کاربران کنترل کامل بر ترجیحات داده‌های خود را حفظ می‌کنند و می‌توانند انتخاب خود را در هر زمان از طریق تنظیمات حریم خصوصی خود به‌روز کنند. اگر کاربری ابتدا به آموزش مدل رضایت دهد (opt-in) و بعداً تصمیم بگیرد این تنظیم را غیرفعال کند، دیگر از چت‌ها و جلسات کدنویسی جدید با Claude برای اجرای آموزش مدل‌های آینده استفاده نخواهد شد. با این حال، مهم است که توجه داشته باشید که داده‌های حاصل از اجرای آموزش مدل‌های قبلی و مدل‌هایی که قبلاً منتشر شده‌اند، ممکن است همچنان حاوی داده‌هایی از تعاملات گذشته آن‌ها باشند. با این وجود، Anthropic متعهد می‌شود که پس از ثبت ترجیح انصراف (opt-out)، استفاده از آن چت‌ها و جلسات کدنویسی که قبلاً ذخیره شده‌اند را در هیچ یک از تکرارهای آینده آموزش مدل متوقف کند، و بدین ترتیب به انتخاب به‌روز شده کاربر برای استفاده مداوم از داده‌ها و حریم خصوصی احترام می‌گذارد."
  • question: "Anthropic چگونه با این سیاست‌های جدید، به ویژه با نگهداری طولانی‌تر داده‌ها، از حریم خصوصی و حفاظت از داده‌های کاربر اطمینان حاصل می‌کند؟" answer: "برای حفاظت از حریم خصوصی کاربر، Anthropic ترکیبی از ابزارهای پیشرفته و فرآیندهای خودکار را به کار می‌گیرد که برای فیلتر کردن یا مبهم‌سازی داده‌های حساس قبل از استفاده برای آموزش مدل طراحی شده‌اند، حتی با دوره نگهداری طولانی‌تر برای کاربران رضایت‌داده (opt-in). این شرکت صراحتاً بیان می‌کند که داده‌های کاربر را به اشخاص ثالث نمی‌فروشد و بدین ترتیب تعهد خود را به حفظ حریم خصوصی تقویت می‌کند. علاوه بر این، کاربران کنترل خود را حفظ می‌کنند: حذف یک مکالمه تضمین می‌کند که از آن برای آموزش مدل آینده استفاده نخواهد شد، و تغییر تنظیمات رضایت (opt-in) از استفاده چت‌های جدید جلوگیری می‌کند. هدف این اقدامات ایجاد تعادل بین نیاز به بهبود مدل مبتنی بر داده و حفاظت‌های سختگیرانه از حریم خصوصی است، که اعتماد کاربر و امنیت داده‌ها را در طول چرخه توسعه هوش مصنوعی تضمین می‌کند. این رویکرد جامع بر تعهد Anthropic به شیوه‌های مسئولانه هوش مصنوعی تأکید می‌کند."

Anthropic به‌روزرسانی‌های کلیدی برای شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی Claude را منتشر می‌کند

Anthropic، یک شرکت پیشرو در زمینه تحقیقات هوش مصنوعی، به‌روزرسانی‌های قابل توجهی را برای شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی خود برای کاربران مدل‌های هوش مصنوعی Claude اعلام کرده است. این تغییرات، که از 28 اوت 2025 اعمال می‌شوند، به منظور توانمندسازی کاربران با کنترل بیشتر بر داده‌هایشان و همزمان قادر ساختن Anthropic برای توسعه سیستم‌های هوش مصنوعی توانمندتر و ایمن‌تر طراحی شده‌اند. هسته این به‌روزرسانی‌ها بر مکانیسم رضایت‌دهی (opt-in) برای استفاده از داده‌ها در آموزش مدل و یک دوره نگهداری داده طولانی‌تر برای کسانی که شرکت می‌کنند، متمرکز است.

این اقدام نشان‌دهنده یک روند رو به رشد در صنعت به سمت شفافیت بیشتر و عاملیت کاربر در توسعه هوش مصنوعی است. با اجازه دادن به کاربران برای انتخاب فعالانه اینکه آیا تعاملاتشان به یادگیری Claude کمک کند یا خیر، Anthropic قصد دارد محیطی مشارکتی را تقویت کند که هم به نفع کاربران فردی و هم به نفع اکوسیستم گسترده‌تر هوش مصنوعی باشد. این تکامل استراتژیک سیاست‌های رو به روی مصرف‌کننده بر تعهد شرکت به توسعه مسئولانه هوش مصنوعی و اعتماد کاربر تأکید می‌کند.

بهبود Claude با بینش‌ها و محافظت‌های مبتنی بر کاربر

تغییر اصلی در سیاست به‌روز شده Anthropic، معرفی یک انتخاب برای کاربر در مورد استفاده از داده‌ها برای بهبود مدل است. کاربران برنامه‌های Free، Pro و Max Claude، از جمله کسانی که از Claude Code از حساب‌های مرتبط استفاده می‌کنند، اکنون این گزینه را خواهند داشت که اجازه دهند داده‌هایشان به آموزش مدل‌های آینده Claude کمک کند. این مشارکت به عنوان گامی حیاتی در جهت ساخت هوش مصنوعی قوی‌تر و هوشمندتر تلقی می‌شود.

انتخاب مشارکت در این استفاده از داده‌ها مزایای مستقیم متعددی را ارائه می‌دهد. طبق گفته Anthropic، تعاملات کاربر بینش‌های ارزشمند دنیای واقعی را فراهم می‌کنند که به اصلاح پروتکل‌های ایمنی مدل کمک می‌کنند و سیستم‌های شناسایی محتوای مضر را دقیق‌تر و کمتر مستعد برچسب‌گذاری مکالمات بی‌ضرر می‌سازند. فراتر از ایمنی، انتظار می‌رود داده‌های کاربر قابلیت‌های اصلی Claude، مانند مهارت کدنویسی، استدلال تحلیلی، و مهارت‌های حل مسئله پیچیده را به طور قابل توجهی بهبود بخشند. این حلقه بازخورد برای تکامل مداوم مدل‌های زبان بزرگ ضروری است که منجر به ابزارهای هوش مصنوعی پالایش‌شده‌تر و مفیدتر برای همه می‌شود.

توجه به دامنه خاص این به‌روزرسانی‌ها مهم است. در حالی که این تغییرات برای حساب‌های رده مصرف‌کننده قابل اعمال هستند، این تغییرات سیاستی صراحتاً به خدماتی که تحت شرایط تجاری Anthropic اداره می‌شوند، گسترش نمی‌یابند. این شامل Claude for Work، Claude for Government، Claude for Education، و تمام موارد استفاده از API، چه به صورت مستقیم و چه از طریق پلتفرم‌های شخص ثالث مانند Amazon Bedrock یا Vertex AI گوگل کلود، می‌شود. این تمایز تضمین می‌کند که مشتریان تجاری و شرکای سطح سازمانی، توافق‌نامه‌های داده‌ای و چارچوب‌های حفظ حریم خصوصی موجود و اغلب سفارشی خود را حفظ کنند. برای کاربرانی که از خدماتی مانند Amazon Bedrock AgentCore استفاده می‌کنند، توافق‌نامه‌های جداگانه همچنان پابرجا هستند.

پیمایش انتخاب‌های شما: رضایت‌دهی (Opt-in) و ضرب‌الاجل‌ها

Anthropic متعهد است که کنترل واضحی بر داده‌های کاربران ارائه دهد. هم کاربران جدید و هم کاربران فعلی Claude با فرآیندهای متمایزی برای انتخاب اشتراک‌گذاری داده‌های خود مواجه خواهند شد. کاربران جدیدی که برای Claude ثبت‌نام می‌کنند، گزینه انتخاب ترجیح خود برای آموزش مدل را به عنوان بخشی جدایی‌ناپذیر از فرآیند ثبت‌نام خواهند یافت و به آن‌ها امکان می‌دهد تنظیمات حریم خصوصی خود را از ابتدا تعریف کنند.

برای کاربران فعلی، Anthropic اجرای مرحله‌ای اعلان‌های درون‌برنامه‌ای را آغاز کرده است. این پنجره‌های پاپ‌آپ از کاربران می‌خواهند شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی به‌روز شده را بررسی کرده و تصمیم بگیرند که آیا اجازه می‌دهند از داده‌هایشان برای بهبود مدل استفاده شود. کاربران تا 8 اکتبر 2025 فرصت دارند تا انتخاب خود را انجام دهند. اگر یک کاربر فعلی تصمیم بگیرد سیاست‌های جدید را بپذیرد و قبل از این ضرب‌الاجل رضایت دهد (opt-in)، این تغییرات بلافاصله برای تمام چت‌ها و جلسات کدنویسی جدید یا از سر گرفته شده اعمال خواهند شد. برای کاربران حیاتی است که تا تاریخ مشخص شده انتخابی انجام دهند، زیرا ادامه استفاده از Claude پس از 8 اکتبر 2025، مستلزم انتخابی در تنظیمات آموزش مدل خواهد بود. این امر تضمین می‌کند که کاربران به طور فعال در شکل‌دهی چشم‌انداز حریم خصوصی خود مشارکت دارند.

نکته مهم این است که کنترل کاربر یک تصمیم یک‌باره نیست. Anthropic تاکید می‌کند که ترجیحات را می‌توان در هر زمان از طریق بخش تنظیمات حریم خصوصی اختصاصی در رابط کاربری Claude تنظیم کرد. این انعطاف‌پذیری بر تعهد شرکت به استقلال مستمر کاربر در مورد داده‌های شخصی خود تأکید می‌کند.

مقایسه سیاست‌ها: استفاده و نگهداری داده‌ها

برای روشن شدن تأثیر این به‌روزرسانی‌ها، جدول زیر خلاصه‌ای از تفاوت‌های کلیدی بین رضایت‌دهی (opt-in) و انصراف (opt-out) از استفاده داده‌ها برای آموزش مدل تحت شرایط مصرف‌کننده جدید را ارائه می‌دهد:

ویژگیرضایت‌دهی برای آموزش مدل (سیاست جدید)انصراف (سیاست موجود/پیش‌فرض)
استفاده از دادهچت‌ها و جلسات کدنویسی جدید/از سر گرفته شده برای بهبود و ایمنی مدل استفاده می‌شوند.چت‌ها و جلسات کدنویسی جدید/از سر گرفته شده برای آموزش مدل استفاده نمی‌شوند.
دوره نگهداری داده5 سال برای داده‌های رضایت‌داده شده.30 روز برای تمام داده‌ها.
اعمال می‌شود برحساب‌های Claude Free، Pro، Max و جلسات Claude Code.حساب‌های Claude Free، Pro، Max و جلسات Claude Code.
استثنائاتشرایط تجاری، API، Amazon Bedrock، خدمات Google Vertex AI.همان استثنائات.

نگهداری استراتژیک داده‌ها برای توسعه بلندمدت هوش مصنوعی

در کنار رضایت‌دهی (opt-in) برای آموزش مدل، Anthropic همچنین یک دوره نگهداری داده طولانی‌تر را برای کاربرانی که تصمیم به شرکت دارند، معرفی می‌کند. اگر کاربری انتخاب کند که داده‌های خود را برای بهبود مدل ارائه دهد، دوره نگهداری برای چت‌ها و جلسات کدنویسی جدید یا از سر گرفته شده به پنج سال تمدید خواهد شد. برای کاربرانی که رضایت نمی‌دهند (opt-out)، دوره نگهداری داده 30 روزه فعلی همچنان اعمال خواهد شد. این نگهداری طولانی‌تر همچنین بازخوردهای ارسالی در مورد پاسخ‌های Claude به درخواست‌ها را پوشش می‌دهد.

منطق پشت دوره نگهداری پنج ساله عمیقاً ریشه در واقعیت‌های توسعه پیشرفته هوش مصنوعی دارد. مدل‌های زبان بزرگ چرخه‌های توسعه‌ای را پشت سر می‌گذارند که اغلب 18 تا 24 ماه قبل از انتشار به طول می‌انجامند. حفظ سازگاری داده‌ها در طول دوره‌های طولانی‌تر برای ایجاد مدل‌های پایدارتر و قابل پیش‌بینی‌تر حیاتی است. داده‌های سازگار به مدل‌ها اجازه می‌دهد به روش‌های مشابهی آموزش دیده و پالایش شوند، که منجر به انتقال‌ها و ارتقاءهای روان‌تر برای کاربران می‌شود.

علاوه بر این، نگهداری طولانی‌تر به طور قابل توجهی به بهبود طبقه‌بندی‌کننده‌های داخلی Anthropic – سیستم‌های پیچیده‌ای که برای شناسایی و مقابله با سوءاستفاده، بدرفتاری، اسپم و سایر الگوهای مضر استفاده می‌شوند – کمک می‌کند. این مکانیسم‌های ایمنی با یادگیری از داده‌های جمع‌آوری شده در طول دوره‌های طولانی‌تر، مؤثرتر می‌شوند و توانایی Claude را برای ماندن به عنوان یک ابزار ایمن و مفید برای همه افزایش می‌دهند. Anthropic همچنین به بحث‌های گسترده‌تر ایمنی هوش مصنوعی متعهد است، همانطور که با ابتکاراتی مانند مؤسسه Anthropic برجسته شده است.

برای حفاظت از حریم خصوصی کاربر، Anthropic ترکیبی از ابزارهای پیشرفته و فرآیندهای خودکار را به کار می‌گیرد تا داده‌های حساس را قبل از استفاده برای هرگونه آموزش یا تحلیل مدل فیلتر یا مبهم کند. این شرکت با قاطعیت بیان می‌کند که داده‌های کاربر را به اشخاص ثالث نمی‌فروشد و بدین ترتیب تعهد خود را به حفظ حریم خصوصی، حتی با نگهداری طولانی‌تر داده‌های رضایت‌داده شده، تقویت می‌کند. کاربران حتی پس از رضایت‌دهی (opt-in) کنترل خود را بر داده‌هایشان حفظ می‌کنند؛ حذف یک مکالمه خاص تضمین می‌کند که از آن برای آموزش مدل آینده استفاده نخواهد شد.

توانمندسازی کاربر و حاکمیت داده‌ها

شرایط مصرف‌کننده و سیاست حفظ حریم خصوصی به‌روز شده Anthropic بر رویکرد کاربرمحور در توسعه هوش مصنوعی تأکید می‌کند. با قرار دادن انتخاب مشارکت در بهبود مدل مستقیماً در دستان کاربر، شرکت قصد دارد رابطه‌ای شفاف‌تر و مشارکتی‌تر را تقویت کند. توانایی تغییر این ترجیحات در هر زمان تضمین می‌کند که کاربران کنترل مستمر بر مسیر داده‌های خود را حفظ می‌کنند.

اگر کاربری ابتدا برای آموزش مدل رضایت دهد (opt-in) اما بعداً تصمیم بگیرد که نظر خود را تغییر داده و انصراف دهد (opt-out)، Anthropic یک سیاست روشن دارد. در حالی که داده‌های استفاده شده در اجرای آموزش مدل‌های قبلی و مدل‌های قبلاً منتشر شده ممکن است همچنان در آن نسخه‌ها وجود داشته باشند، اما چت‌ها و جلسات کدنویسی جدید پس از تصمیم انصراف، برای آموزش‌های آینده استفاده نخواهند شد. شرکت متعهد می‌شود که استفاده از چت‌ها و جلسات کدنویسی قبلاً ذخیره شده را در هر یک از تکرارهای آینده آموزش مدل پس از به‌روزرسانی ترجیح متوقف کند. این یک مکانیسم قوی برای کاربران برای مدیریت پویا تنظیمات حریم خصوصی خود ارائه می‌دهد.

این به‌روزرسانی‌ها گامی سنجیده به سمت ایجاد تعادل بین پتانسیل عظیم نوآوری هوش مصنوعی مبتنی بر داده و اهمیت فوق‌العاده حریم خصوصی و شفافیت کاربر است. همانطور که مدل‌های هوش مصنوعی به طور فزاینده‌ای در زندگی روزمره ادغام می‌شوند، سیاست‌هایی مانند این برای ایجاد اعتماد و اطمینان از توسعه اخلاقی حیاتی هستند.

سوالات متداول

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

به‌روز بمانید

آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.

اشتراک‌گذاری