Code Velocity
מודלי בינה מלאכותית

Anthropic Claude: עדכונים לתנאי השימוש ולמדיניות הפרטיות לצרכנים

·5 דקות קריאה·Anthropic·מקור מקורי
שתף
מסך הודעת עדכון לתנאי השימוש ולמדיניות הפרטיות של Anthropic Claude

Anthropic משיקה עדכונים מהותיים לתנאי השימוש ולמדיניות הפרטיות של Claude

Anthropic, חברת מחקר AI מובילה, הכריזה על עדכונים משמעותיים לתנאי השימוש ולמדיניות הפרטיות שלה עבור משתמשי מודלי ה-AI שלה, Claude. שינויים אלה, הנכנסים לתוקף ב-28 באוגוסט 2025, נועדו להעניק למשתמשים שליטה רבה יותר על הנתונים שלהם, תוך שהם מאפשרים ל-Anthropic לפתח מערכות AI בטוחות ובעלות יכולות גבוהות יותר. ליבת העדכונים הללו מתמקדת במנגנון הצטרפות (opt-in) לשימוש בנתונים לצורך אימון מודלים, ובתקופת שמירת נתונים מורחבת עבור אלה המשתתפים.

מהלך זה משקף מגמה הולכת וגוברת בתעשייה לקראת שקיפות רבה יותר וסוכנות משתמשים בפיתוח בינה מלאכותית. על ידי כך שהיא מאפשרת למשתמשים לבחור באופן פעיל האם האינטראקציות שלהם יתרמו ללמידה של Claude, Anthropic שואפת לטפח סביבה שיתופית שתועיל הן למשתמשים בודדים והן למערכת האקולוגית הרחבה יותר של AI. התפתחות אסטרטגית זו של מדיניות המיועדת לצרכנים מדגישה את מחויבות החברה לפיתוח AI אחראי ולאמון המשתמשים.

שיפור Claude עם תובנות והגנות מונעות-משתמש

השינוי העיקרי במדיניות המעודכנת של Anthropic הוא הצגת בחירת משתמש בנוגע לניצול נתונים לשיפור מודלים. משתמשים בתוכניות Free, Pro ו-Max של Claude, כולל אלה המשתמשים ב-Claude Code מחשבונות קשורים, יקבלו כעת את האפשרות לאפשר לנתונים שלהם לתרום לאימון מודלי Claude עתידיים. השתתפות זו ממוקמת כצעד מכריע לקראת בניית AI חזק וחכם יותר.

הצטרפות לשימוש בנתונים זה מציעה מספר יתרונות ישירים. לדברי Anthropic, אינטראקציות משתמשים מספקות תובנות יקרות ערך מהעולם האמיתי המסייעות לשפר את פרוטוקולי בטיחות המודל, והופכות את המערכות לזיהוי תוכן מזיק למדויקות יותר ופחות נוטות לסמן שיחות תמימות. מעבר לבטיחות, נתוני משתמשים צפויים לשפר משמעותית את יכולות הליבה של Claude, כגון מיומנות קידוד, חשיבה אנליטית וכישורי פתרון בעיות מורכבות. לולאת משוב זו חיונית להתפתחות מתמשכת של מודלי שפה גדולים, ומובילה לכלי AI מעודנים ושימושיים יותר עבור כולם.

חשוב לציין את ההיקף הספציפי של עדכונים אלה. בעוד שהם חלים על חשבונות ברמת צרכן, שינויים אלה במדיניות אינם חלים במפורש על שירותים הכפופים לתנאי השימוש המסחריים של Anthropic. זה כולל את Claude for Work, Claude for Government, Claude for Education, וכל שימוש ב-API, בין אם ישירות או באמצעות פלטפורמות צד שלישי כמו Amazon Bedrock או Google Cloud’s Vertex AI. הבחנה זו מבטיחה שלקוחות מסחריים ושותפים ברמת ארגונים ישמרו על הסכמי הנתונים ומסגרות הפרטיות הקיימים שלהם, שלעיתים קרובות מותאמים אישית. עבור משתמשים המנצלים שירותים כמו Amazon Bedrock AgentCore, נותרים בתוקף הסכמים נפרדים.

ניווט בבחירות שלך: הצטרפות ומועדים אחרונים

Anthropic מחויבת לספק למשתמשים שליטה ברורה על הנתונים שלהם. הן משתמשי Claude חדשים והן קיימים ייתקלו בתהליכים מובחנים לקבלת החלטות בנוגע לשיתוף הנתונים שלהם. משתמשים חדשים הנרשמים ל-Claude ימצאו את האפשרות לבחור את העדפתם לאימון מודלים כחלק בלתי נפרד מתהליך ההצטרפות, מה שיאפשר להם להגדיר את הגדרות הפרטיות שלהם כבר מההתחלה.

עבור משתמשים קיימים, Anthropic השיקה הטמעה הדרגתית של הודעות בתוך האפליקציה. חלונות קופצים אלה יבקשו מהמשתמשים לסקור את תנאי השימוש ומדיניות הפרטיות המעודכנים ולהחליט האם לאפשר שימוש בנתונים שלהם לשיפור המודל. למשתמשים יש תקופת חסד עד ה-8 באוקטובר 2025 כדי לבצע את בחירתם. אם משתמש קיים יבחר לקבל את המדיניות החדשה ולהצטרף לפני מועד זה, שינויים אלה ייכנסו לתוקף מיד עבור כל הצ'אטים והפעלות הקידוד החדשות או המחודשות. חיוני למשתמשים לבצע בחירה עד לתאריך שצוין, שכן המשך שימוש ב-Claude לאחר ה-8 באוקטובר 2025 יחייב בחירה לגבי הגדרת אימון המודל. זה מבטיח שהמשתמשים מעורבים באופן פעיל בעיצוב נוף הפרטיות שלהם.

באופן מכריע, שליטת המשתמש אינה החלטה חד-פעמית. Anthropic מדגישה כי ניתן להתאים את ההעדפות בכל עת דרך קטע 'הגדרות הפרטיות' הייעודי בממשק של Claude. גמישות זו מדגישה את מחויבות החברה לאוטונומיה מתמשכת של המשתמשים בנוגע לנתונים האישיים שלהם.

השוואת מדיניות: שימוש בנתונים ושמירת נתונים

כדי להבהיר את השפעת עדכונים אלה, הטבלה הבאה מסכמת את ההבדלים המרכזיים בין הצטרפות לבין אי-הצטרפות לשימוש בנתונים לצורך אימון מודלים תחת תנאי השימוש החדשים:

תכונההצטרפות לאימון מודלים (מדיניות חדשה)ביטול הסכמה (מדיניות קיימת/ברירת מחדל)
שימוש בנתוניםצ'אטים והפעלות קידוד חדשים/מחודשים משמשים לשיפור ובטיחות המודל.צ'אטים והפעלות קידוד חדשים/מחודשים אינם משמשים לאימון מודלים.
תקופת שמירת נתונים5 שנים לנתונים שהוצטרפו.30 יום לכל הנתונים.
חל עלחשבונות Claude Free, Pro, Max והפעלות Claude Code.חשבונות Claude Free, Pro, Max והפעלות Claude Code.
החרגותתנאי שימוש מסחריים, API, Amazon Bedrock, שירותי Google Vertex AI.אותן החרגות.

שמירת נתונים אסטרטגית לפיתוח AI לטווח ארוך

לצד אפשרות ההצטרפות לאימון מודלים, Anthropic מציגה גם תקופת שמירת נתונים מורחבת עבור משתמשים הבוחרים להשתתף. אם משתמש בוחר לאפשר שימוש בנתונים שלו לשיפור המודל, תקופת השמירה עבור צ'אטים והפעלות קידוד חדשים או מחודשים תוארך לחמש שנים. למשתמשים שאינם בוחרים להצטרף, תקופת שמירת הנתונים הקיימת למשך 30 יום תמשיך לחול. שמירה מורחבת זו מכסה גם משוב שנשלח לגבי תגובות של Claude לפרומפטים.

ההיגיון מאחורי תקופת השמירה בת חמש השנים נטוע עמוק במציאות של פיתוח AI מתקדם. מודלי שפה גדולים עוברים מחזורי פיתוח שנמשכים לעיתים קרובות 18 עד 24 חודשים לפני שחרורם. שמירה על עקביות נתונים לאורך תקופות ארוכות יותר חיונית ליצירת מודלים יציבים וצפויים יותר. נתונים עקביים מאפשרים לאמן ולחדד מודלים בדרכים דומות, מה שמוביל למעברים ושדרוגים חלקים יותר עבור המשתמשים.

יתרה מכך, השמירה המורחבת מסייעת באופן משמעותי בשיפור המסווגים הפנימיים של Anthropic – המערכות המתוחכמות המשמשות לזיהוי ונטרול שימוש לרעה, פגיעה, ספאם ודפוסים מזיקים אחרים. מנגנוני בטיחות אלה הופכים יעילים יותר באמצעות למידה מנתונים שנאספו לאורך זמן, מה שמשפר את יכולתו של Claude להישאר כלי בטוח ומועיל עבור כולם. Anthropic מחויבת גם לדיונים רחבים יותר בנושא בטיחות AI, כפי שמודגש על ידי יוזמות כמו The Anthropic Institute.

כדי להגן על פרטיות המשתמשים, Anthropic משתמשת בשילוב של כלים מתקדמים ותהליכים אוטומטיים לסינון או טשטוש נתונים רגישים לפני שהם משמשים לאימון או ניתוח מודלים כלשהם. החברה מצהירה בתוקף כי היא אינה מוכרת נתוני משתמשים לצדדים שלישיים, ובכך מחזקת את מחויבותה לפרטיות גם עם שמירת הנתונים המורחבת עבור נתונים שהוצטרפו. משתמשים שומרים על שליטה בנתוניהם גם לאחר ההצטרפות; מחיקת שיחה ספציפית מבטיחה שהיא לא תשמש לאימון מודלים עתידי. גישה מקיפה זו מדגישה את מסירותה של Anthropic לשיטות AI אחראיות.

העצמת משתמשים וממשל נתונים

תנאי השימוש ומדיניות הפרטיות המעודכנים של Anthropic מדגישים גישה ממוקדת משתמש לפיתוח AI. על ידי העברת הבחירה לתרום לשיפור המודל ישירות לידי המשתמש, החברה שואפת לטפח יחסים שקופים ושיתופיים יותר. היכולת לשנות העדפות אלו בכל עת מבטיחה שהמשתמשים שומרים על שליטה מתמשכת על מסע הנתונים שלהם.

אם משתמש בחר בתחילה להצטרף לאימון מודלים אך מאוחר יותר מחליט לשנות את דעתו ולבטל את הסכמתו (opt-out), ל-Anthropic יש מדיניות ברורה. בעוד שנתונים ששימשו בהרצות אימון מודלים שהושלמו בעבר ובמודלים שכבר שוחררו עשויים עדיין להתקיים בגרסאות אלו, כל צ'אטים והפעלות קידוד חדשים לאחר החלטת הביטול לא ישמשו לאימון עתידי. החברה מתחייבת להפסיק את השימוש בצ'אטים ובהפעלות קידוד שנשמרו בעבר בכל איטרציות אימון מודל עתידיות ברגע שההעדפה מתעדכנת. זה מציע מנגנון חזק למשתמשים לנהל את הגדרות הפרטיות שלהם באופן דינמי.

עדכונים אלה מייצגים צעד מדוד לקראת איזון בין הפוטנציאל העצום של חדשנות AI מונעת נתונים לבין החשיבות העליונה של פרטיות ושקיפות המשתמש. ככל שמודלי AI משתלבים יותר ויותר בחיי היומיום, מדיניות כזו חיונית לבניית אמון והבטחת פיתוח אתי.

שאלות נפוצות

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

הישארו מעודכנים

קבלו את חדשות ה-AI האחרונות לתיבת הדוא״ל.

שתף