title: "بهروزرسانیهای Anthropic Claude: شرایط مصرفکننده و سیاست حفظ حریم خصوصی" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "fa" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "مدلهای هوش مصنوعی" keywords:
- Anthropic
- 'هوش مصنوعی Claude'
- 'شرایط مصرفکننده'
- 'سیاست حفظ حریم خصوصی'
- 'استفاده از داده'
- 'آموزش مدل'
- 'ایمنی هوش مصنوعی'
- 'نگهداری داده'
- 'ترجیحات کاربر'
- 'توسعه هوش مصنوعی'
- 'سیاست LLM'
- 'شفافیت' meta_description: "Anthropic بهروزرسانیهای کلیدی را برای شرایط مصرفکننده و سیاست حفظ حریم خصوصی Claude اعلام میکند که به کاربران کنترل بیشتری بر استفاده از دادهها برای بهبود مدل میدهد و نگهداری دادهها را برای ایمنی و توسعه تمدید میکند." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "صفحه اعلان بهروزرسانی شرایط مصرفکننده و سیاست حفظ حریم خصوصی Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "تغییرات اصلی معرفی شده در بهروزرسانی شرایط مصرفکننده و سیاست حفظ حریم خصوصی Anthropic برای کاربران Claude چیست؟" answer: "Anthropic در حال اجرای بهروزرسانیهای قابل توجهی برای شرایط مصرفکننده و سیاست حفظ حریم خصوصی خود است که عمدتاً بر توانمندسازی کاربران با انتخاب اجازه استفاده از دادههایشان برای بهبود مدلهای هوش مصنوعی Claude متمرکز است. هنگامی که این تنظیم فعال شود، دادههای حسابهای Free، Pro و Max، از جمله جلسات Claude Code، به آموزش مدلهای جدید کمک خواهند کرد. هدف این کار افزایش ایمنی، دقت و قابلیتهای مدل در زمینههایی مانند کدنویسی، تحلیل و استدلال است. علاوه بر این، برای کاربرانی که به این گزینه رضایت میدهند (opt-in)، دوره نگهداری دادهها به پنج سال تمدید خواهد شد. برعکس، اگر کاربران تصمیم بگیرند که به آموزش مدل رضایت ندهند (opt-out)، سیاست نگهداری دادههای 30 روزه فعلی پابرجا خواهد ماند. این تغییرات بر کاربران تجاری تحت قراردادهای سازمانی خاص یا استفاده از API تأثیری نمیگذارند و سیاستهای متمایزی را برای بخشهای مختلف کاربران تضمین میکنند."
- question: "کدام خدمات Claude و انواع کاربران تحت تأثیر این بهروزرسانیهای سیاست جدید قرار میگیرند و کدامیک نه؟" answer: "بهروزرسانی شرایط مصرفکننده و سیاست حفظ حریم خصوصی بهطور خاص برای کاربران انفرادی برنامههای Free، Pro و Max Anthropic Claude اعمال میشود. این شامل مواردی است که کاربران با Claude Code از طریق حسابهای مرتبط با این برنامههای مصرفکننده تعامل دارند. با این حال، درک این نکته حیاتی است که این بهروزرسانیها شامل خدماتی که تحت شرایط تجاری Anthropic فعالیت میکنند، نمیشود. این بدان معناست که Claude for Work (شامل برنامههای Team و Enterprise)، Claude for Government، Claude for Education و تمام موارد استفاده از API – چه به صورت مستقیم و چه از طریق پلتفرمهای شخص ثالث مانند Amazon Bedrock یا Vertex AI گوگل کلود – صراحتاً از این تغییرات سیاست جدید متمرکز بر مصرفکننده مستثنی هستند. کاربران تجاری و یکپارچهسازان API همچنان تحت توافقنامههای موجود خود فعالیت خواهند کرد که دارای مفاد حفظ حریم خصوصی و مدیریت داده جداگانهای هستند."
- question: "چرا Anthropic این تغییرات را اعمال میکند، به ویژه در مورد استفاده از داده برای آموزش مدل و نگهداری طولانیتر دادهها؟" answer: "Anthropic اعلام میکند که این تغییرات ناشی از نیاز اساسی برای بهبود مستمر قابلیت، ایمنی و کاربرد مدلهای زبان بزرگ مانند Claude است. تعاملات دنیای واقعی سیگنالهای دادهای ارزشمندی را فراهم میکنند که به مدلها کمک میکنند تا یاد بگیرند کدام پاسخها مفیدتر، دقیقتر و ایمنتر هستند. به عنوان مثال، توسعهدهندگانی که کدها را با Claude اشکالزدایی میکنند، بینشهای حیاتی را برای بهبود قابلیتهای کدنویسی آینده ارائه میدهند. نگهداری طولانیتر دادهها به مدت پنج سال، بهطور خاص برای کاربرانی که رضایت میدهند (opt-in)، برای پشتیبانی از چرخههای توسعه طولانی هوش مصنوعی طراحی شده است، تا سازگاری دادهها را برای ارتقاء پایدارتر مدلها تضمین کند و اثربخشی طبقهبندیکنندههای داخلی را که الگوهای استفاده مضر مانند سوءاستفاده یا اسپم را در طول دورههای طولانیتر شناسایی و کاهش میدهند، افزایش دهد، که در نهایت Claude را برای همه ایمنتر میکند."
- question: "کاربران فعلی و جدید Claude در رابطه با این بهروزرسانیهای سیاست و ترجیحات دادهای خود چه اقداماتی باید انجام دهند؟" answer: "کاربران فعلی Claude یک اعلان درونبرنامهای دریافت خواهند کرد که از آنها میخواهد بهروزرسانیها را بررسی کرده و در مورد اینکه آیا اجازه میدهند از چتها و جلسات کدنویسی آنها برای بهبود مدل استفاده شود، تصمیمگیری کنند. کاربران تا 8 اکتبر 2025 فرصت دارند تا این انتخاب را انجام دهند. اگر زودتر قبول کنند، سیاستهای جدید بلافاصله برای چتهای جدید یا از سر گرفته شده اعمال میشود. پس از ضربالاجل، انتخاب یک گزینه برای ادامه استفاده از Claude اجباری است. کاربران جدید این انتخاب را به عنوان بخشی از فرآیند ثبتنام اولیه خواهند داشت. صرف نظر از اینکه کاربر جدید یا فعلی باشد، ترجیح را میتوان در هر زمان از طریق تنظیمات حریم خصوصی اختصاصی در رابط کاربری Claude تغییر داد و کنترل مداوم بر استفاده از دادههای شخصی و تضمین شفافیت را ارائه میدهد."
- question: "چه اتفاقی میافتد اگر کاربری ابتدا اجازه استفاده از دادهها برای آموزش مدل را بدهد اما بعداً تصمیم بگیرد که نظر خود را تغییر داده و از این گزینه انصراف دهد (opt-out)؟" answer: "Anthropic تاکید میکند که کاربران کنترل کامل بر ترجیحات دادههای خود را حفظ میکنند و میتوانند انتخاب خود را در هر زمان از طریق تنظیمات حریم خصوصی خود بهروز کنند. اگر کاربری ابتدا به آموزش مدل رضایت دهد (opt-in) و بعداً تصمیم بگیرد این تنظیم را غیرفعال کند، دیگر از چتها و جلسات کدنویسی جدید با Claude برای اجرای آموزش مدلهای آینده استفاده نخواهد شد. با این حال، مهم است که توجه داشته باشید که دادههای حاصل از اجرای آموزش مدلهای قبلی و مدلهایی که قبلاً منتشر شدهاند، ممکن است همچنان حاوی دادههایی از تعاملات گذشته آنها باشند. با این وجود، Anthropic متعهد میشود که پس از ثبت ترجیح انصراف (opt-out)، استفاده از آن چتها و جلسات کدنویسی که قبلاً ذخیره شدهاند را در هیچ یک از تکرارهای آینده آموزش مدل متوقف کند، و بدین ترتیب به انتخاب بهروز شده کاربر برای استفاده مداوم از دادهها و حریم خصوصی احترام میگذارد."
- question: "Anthropic چگونه با این سیاستهای جدید، به ویژه با نگهداری طولانیتر دادهها، از حریم خصوصی و حفاظت از دادههای کاربر اطمینان حاصل میکند؟" answer: "برای حفاظت از حریم خصوصی کاربر، Anthropic ترکیبی از ابزارهای پیشرفته و فرآیندهای خودکار را به کار میگیرد که برای فیلتر کردن یا مبهمسازی دادههای حساس قبل از استفاده برای آموزش مدل طراحی شدهاند، حتی با دوره نگهداری طولانیتر برای کاربران رضایتداده (opt-in). این شرکت صراحتاً بیان میکند که دادههای کاربر را به اشخاص ثالث نمیفروشد و بدین ترتیب تعهد خود را به حفظ حریم خصوصی تقویت میکند. علاوه بر این، کاربران کنترل خود را حفظ میکنند: حذف یک مکالمه تضمین میکند که از آن برای آموزش مدل آینده استفاده نخواهد شد، و تغییر تنظیمات رضایت (opt-in) از استفاده چتهای جدید جلوگیری میکند. هدف این اقدامات ایجاد تعادل بین نیاز به بهبود مدل مبتنی بر داده و حفاظتهای سختگیرانه از حریم خصوصی است، که اعتماد کاربر و امنیت دادهها را در طول چرخه توسعه هوش مصنوعی تضمین میکند. این رویکرد جامع بر تعهد Anthropic به شیوههای مسئولانه هوش مصنوعی تأکید میکند."
Anthropic بهروزرسانیهای کلیدی برای شرایط مصرفکننده و سیاست حفظ حریم خصوصی Claude را منتشر میکند
Anthropic، یک شرکت پیشرو در زمینه تحقیقات هوش مصنوعی، بهروزرسانیهای قابل توجهی را برای شرایط مصرفکننده و سیاست حفظ حریم خصوصی خود برای کاربران مدلهای هوش مصنوعی Claude اعلام کرده است. این تغییرات، که از 28 اوت 2025 اعمال میشوند، به منظور توانمندسازی کاربران با کنترل بیشتر بر دادههایشان و همزمان قادر ساختن Anthropic برای توسعه سیستمهای هوش مصنوعی توانمندتر و ایمنتر طراحی شدهاند. هسته این بهروزرسانیها بر مکانیسم رضایتدهی (opt-in) برای استفاده از دادهها در آموزش مدل و یک دوره نگهداری داده طولانیتر برای کسانی که شرکت میکنند، متمرکز است.
این اقدام نشاندهنده یک روند رو به رشد در صنعت به سمت شفافیت بیشتر و عاملیت کاربر در توسعه هوش مصنوعی است. با اجازه دادن به کاربران برای انتخاب فعالانه اینکه آیا تعاملاتشان به یادگیری Claude کمک کند یا خیر، Anthropic قصد دارد محیطی مشارکتی را تقویت کند که هم به نفع کاربران فردی و هم به نفع اکوسیستم گستردهتر هوش مصنوعی باشد. این تکامل استراتژیک سیاستهای رو به روی مصرفکننده بر تعهد شرکت به توسعه مسئولانه هوش مصنوعی و اعتماد کاربر تأکید میکند.
بهبود Claude با بینشها و محافظتهای مبتنی بر کاربر
تغییر اصلی در سیاست بهروز شده Anthropic، معرفی یک انتخاب برای کاربر در مورد استفاده از دادهها برای بهبود مدل است. کاربران برنامههای Free، Pro و Max Claude، از جمله کسانی که از Claude Code از حسابهای مرتبط استفاده میکنند، اکنون این گزینه را خواهند داشت که اجازه دهند دادههایشان به آموزش مدلهای آینده Claude کمک کند. این مشارکت به عنوان گامی حیاتی در جهت ساخت هوش مصنوعی قویتر و هوشمندتر تلقی میشود.
انتخاب مشارکت در این استفاده از دادهها مزایای مستقیم متعددی را ارائه میدهد. طبق گفته Anthropic، تعاملات کاربر بینشهای ارزشمند دنیای واقعی را فراهم میکنند که به اصلاح پروتکلهای ایمنی مدل کمک میکنند و سیستمهای شناسایی محتوای مضر را دقیقتر و کمتر مستعد برچسبگذاری مکالمات بیضرر میسازند. فراتر از ایمنی، انتظار میرود دادههای کاربر قابلیتهای اصلی Claude، مانند مهارت کدنویسی، استدلال تحلیلی، و مهارتهای حل مسئله پیچیده را به طور قابل توجهی بهبود بخشند. این حلقه بازخورد برای تکامل مداوم مدلهای زبان بزرگ ضروری است که منجر به ابزارهای هوش مصنوعی پالایششدهتر و مفیدتر برای همه میشود.
توجه به دامنه خاص این بهروزرسانیها مهم است. در حالی که این تغییرات برای حسابهای رده مصرفکننده قابل اعمال هستند، این تغییرات سیاستی صراحتاً به خدماتی که تحت شرایط تجاری Anthropic اداره میشوند، گسترش نمییابند. این شامل Claude for Work، Claude for Government، Claude for Education، و تمام موارد استفاده از API، چه به صورت مستقیم و چه از طریق پلتفرمهای شخص ثالث مانند Amazon Bedrock یا Vertex AI گوگل کلود، میشود. این تمایز تضمین میکند که مشتریان تجاری و شرکای سطح سازمانی، توافقنامههای دادهای و چارچوبهای حفظ حریم خصوصی موجود و اغلب سفارشی خود را حفظ کنند. برای کاربرانی که از خدماتی مانند Amazon Bedrock AgentCore استفاده میکنند، توافقنامههای جداگانه همچنان پابرجا هستند.
پیمایش انتخابهای شما: رضایتدهی (Opt-in) و ضربالاجلها
Anthropic متعهد است که کنترل واضحی بر دادههای کاربران ارائه دهد. هم کاربران جدید و هم کاربران فعلی Claude با فرآیندهای متمایزی برای انتخاب اشتراکگذاری دادههای خود مواجه خواهند شد. کاربران جدیدی که برای Claude ثبتنام میکنند، گزینه انتخاب ترجیح خود برای آموزش مدل را به عنوان بخشی جداییناپذیر از فرآیند ثبتنام خواهند یافت و به آنها امکان میدهد تنظیمات حریم خصوصی خود را از ابتدا تعریف کنند.
برای کاربران فعلی، Anthropic اجرای مرحلهای اعلانهای درونبرنامهای را آغاز کرده است. این پنجرههای پاپآپ از کاربران میخواهند شرایط مصرفکننده و سیاست حفظ حریم خصوصی بهروز شده را بررسی کرده و تصمیم بگیرند که آیا اجازه میدهند از دادههایشان برای بهبود مدل استفاده شود. کاربران تا 8 اکتبر 2025 فرصت دارند تا انتخاب خود را انجام دهند. اگر یک کاربر فعلی تصمیم بگیرد سیاستهای جدید را بپذیرد و قبل از این ضربالاجل رضایت دهد (opt-in)، این تغییرات بلافاصله برای تمام چتها و جلسات کدنویسی جدید یا از سر گرفته شده اعمال خواهند شد. برای کاربران حیاتی است که تا تاریخ مشخص شده انتخابی انجام دهند، زیرا ادامه استفاده از Claude پس از 8 اکتبر 2025، مستلزم انتخابی در تنظیمات آموزش مدل خواهد بود. این امر تضمین میکند که کاربران به طور فعال در شکلدهی چشمانداز حریم خصوصی خود مشارکت دارند.
نکته مهم این است که کنترل کاربر یک تصمیم یکباره نیست. Anthropic تاکید میکند که ترجیحات را میتوان در هر زمان از طریق بخش تنظیمات حریم خصوصی اختصاصی در رابط کاربری Claude تنظیم کرد. این انعطافپذیری بر تعهد شرکت به استقلال مستمر کاربر در مورد دادههای شخصی خود تأکید میکند.
مقایسه سیاستها: استفاده و نگهداری دادهها
برای روشن شدن تأثیر این بهروزرسانیها، جدول زیر خلاصهای از تفاوتهای کلیدی بین رضایتدهی (opt-in) و انصراف (opt-out) از استفاده دادهها برای آموزش مدل تحت شرایط مصرفکننده جدید را ارائه میدهد:
| ویژگی | رضایتدهی برای آموزش مدل (سیاست جدید) | انصراف (سیاست موجود/پیشفرض) |
|---|---|---|
| استفاده از داده | چتها و جلسات کدنویسی جدید/از سر گرفته شده برای بهبود و ایمنی مدل استفاده میشوند. | چتها و جلسات کدنویسی جدید/از سر گرفته شده برای آموزش مدل استفاده نمیشوند. |
| دوره نگهداری داده | 5 سال برای دادههای رضایتداده شده. | 30 روز برای تمام دادهها. |
| اعمال میشود بر | حسابهای Claude Free، Pro، Max و جلسات Claude Code. | حسابهای Claude Free، Pro، Max و جلسات Claude Code. |
| استثنائات | شرایط تجاری، API، Amazon Bedrock، خدمات Google Vertex AI. | همان استثنائات. |
نگهداری استراتژیک دادهها برای توسعه بلندمدت هوش مصنوعی
در کنار رضایتدهی (opt-in) برای آموزش مدل، Anthropic همچنین یک دوره نگهداری داده طولانیتر را برای کاربرانی که تصمیم به شرکت دارند، معرفی میکند. اگر کاربری انتخاب کند که دادههای خود را برای بهبود مدل ارائه دهد، دوره نگهداری برای چتها و جلسات کدنویسی جدید یا از سر گرفته شده به پنج سال تمدید خواهد شد. برای کاربرانی که رضایت نمیدهند (opt-out)، دوره نگهداری داده 30 روزه فعلی همچنان اعمال خواهد شد. این نگهداری طولانیتر همچنین بازخوردهای ارسالی در مورد پاسخهای Claude به درخواستها را پوشش میدهد.
منطق پشت دوره نگهداری پنج ساله عمیقاً ریشه در واقعیتهای توسعه پیشرفته هوش مصنوعی دارد. مدلهای زبان بزرگ چرخههای توسعهای را پشت سر میگذارند که اغلب 18 تا 24 ماه قبل از انتشار به طول میانجامند. حفظ سازگاری دادهها در طول دورههای طولانیتر برای ایجاد مدلهای پایدارتر و قابل پیشبینیتر حیاتی است. دادههای سازگار به مدلها اجازه میدهد به روشهای مشابهی آموزش دیده و پالایش شوند، که منجر به انتقالها و ارتقاءهای روانتر برای کاربران میشود.
علاوه بر این، نگهداری طولانیتر به طور قابل توجهی به بهبود طبقهبندیکنندههای داخلی Anthropic – سیستمهای پیچیدهای که برای شناسایی و مقابله با سوءاستفاده، بدرفتاری، اسپم و سایر الگوهای مضر استفاده میشوند – کمک میکند. این مکانیسمهای ایمنی با یادگیری از دادههای جمعآوری شده در طول دورههای طولانیتر، مؤثرتر میشوند و توانایی Claude را برای ماندن به عنوان یک ابزار ایمن و مفید برای همه افزایش میدهند. Anthropic همچنین به بحثهای گستردهتر ایمنی هوش مصنوعی متعهد است، همانطور که با ابتکاراتی مانند مؤسسه Anthropic برجسته شده است.
برای حفاظت از حریم خصوصی کاربر، Anthropic ترکیبی از ابزارهای پیشرفته و فرآیندهای خودکار را به کار میگیرد تا دادههای حساس را قبل از استفاده برای هرگونه آموزش یا تحلیل مدل فیلتر یا مبهم کند. این شرکت با قاطعیت بیان میکند که دادههای کاربر را به اشخاص ثالث نمیفروشد و بدین ترتیب تعهد خود را به حفظ حریم خصوصی، حتی با نگهداری طولانیتر دادههای رضایتداده شده، تقویت میکند. کاربران حتی پس از رضایتدهی (opt-in) کنترل خود را بر دادههایشان حفظ میکنند؛ حذف یک مکالمه خاص تضمین میکند که از آن برای آموزش مدل آینده استفاده نخواهد شد.
توانمندسازی کاربر و حاکمیت دادهها
شرایط مصرفکننده و سیاست حفظ حریم خصوصی بهروز شده Anthropic بر رویکرد کاربرمحور در توسعه هوش مصنوعی تأکید میکند. با قرار دادن انتخاب مشارکت در بهبود مدل مستقیماً در دستان کاربر، شرکت قصد دارد رابطهای شفافتر و مشارکتیتر را تقویت کند. توانایی تغییر این ترجیحات در هر زمان تضمین میکند که کاربران کنترل مستمر بر مسیر دادههای خود را حفظ میکنند.
اگر کاربری ابتدا برای آموزش مدل رضایت دهد (opt-in) اما بعداً تصمیم بگیرد که نظر خود را تغییر داده و انصراف دهد (opt-out)، Anthropic یک سیاست روشن دارد. در حالی که دادههای استفاده شده در اجرای آموزش مدلهای قبلی و مدلهای قبلاً منتشر شده ممکن است همچنان در آن نسخهها وجود داشته باشند، اما چتها و جلسات کدنویسی جدید پس از تصمیم انصراف، برای آموزشهای آینده استفاده نخواهند شد. شرکت متعهد میشود که استفاده از چتها و جلسات کدنویسی قبلاً ذخیره شده را در هر یک از تکرارهای آینده آموزش مدل پس از بهروزرسانی ترجیح متوقف کند. این یک مکانیسم قوی برای کاربران برای مدیریت پویا تنظیمات حریم خصوصی خود ارائه میدهد.
این بهروزرسانیها گامی سنجیده به سمت ایجاد تعادل بین پتانسیل عظیم نوآوری هوش مصنوعی مبتنی بر داده و اهمیت فوقالعاده حریم خصوصی و شفافیت کاربر است. همانطور که مدلهای هوش مصنوعی به طور فزایندهای در زندگی روزمره ادغام میشوند، سیاستهایی مانند این برای ایجاد اعتماد و اطمینان از توسعه اخلاقی حیاتی هستند.
سوالات متداول
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
بهروز بمانید
آخرین اخبار هوش مصنوعی را در ایمیل خود دریافت کنید.
