Code Velocity
KI-Modelle

Anthropic Claude: Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie für Verbraucher

·5 Min. Lesezeit·Anthropic·Originalquelle
Teilen
Benachrichtigungsbildschirm für die Aktualisierung der Nutzungsbedingungen und Datenschutzrichtlinie von Anthropic Claude für Verbraucher

title: "Anthropic Claude: Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie für Verbraucher" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "de" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "KI-Modelle" keywords:

  • Anthropic
  • Claude AI
  • Nutzungsbedingungen
  • Datenschutzrichtlinie
  • Datennutzung
  • Modelltraining
  • KI-Sicherheit
  • Datenaufbewahrung
  • Benutzereinstellungen
  • KI-Entwicklung
  • LLM-Richtlinie
  • Transparenz meta_description: "Anthropic kündigt wichtige Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie von Claude an, die Nutzern die Kontrolle über die Datennutzung zur Modellverbesserung ermöglichen und die Datenaufbewahrung für Sicherheit und Entwicklung verlängern." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Benachrichtigungsbildschirm für die Aktualisierung der Nutzungsbedingungen und Datenschutzrichtlinie von Anthropic Claude für Verbraucher" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Was sind die Kernänderungen, die in den aktualisierten Nutzungsbedingungen und der Datenschutzrichtlinie von Anthropic für Claude-Nutzer eingeführt wurden?" answer: "Anthropic führt wesentliche Aktualisierungen seiner Nutzungsbedingungen und Datenschutzrichtlinie ein, die sich hauptsächlich darauf konzentrieren, Nutzern die Wahl zu ermöglichen, ihre Daten zur Verbesserung der Claude AI-Modelle verwenden zu lassen. Wenn diese Einstellung aktiviert ist, tragen Daten von Free-, Pro- und Max-Konten, einschließlich Claude Code-Sitzungen, zum Training neuer Modelle bei. Dies zielt darauf ab, die Modellsicherheit, Genauigkeit und Fähigkeiten in Bereichen wie Codierung, Analyse und Schlussfolgerung zu verbessern. Zusätzlich wird für Nutzer, die sich dafür entscheiden, die Datenaufbewahrungsfrist auf fünf Jahre verlängert. Wenn Nutzer sich dagegen entscheiden, ihre Daten nicht für das Modelltraining zu verwenden, bleibt die bestehende 30-Tage-Datenaufbewahrungsrichtlinie in Kraft. Diese Änderungen betreffen keine kommerziellen Nutzer, die unter spezifischen Unternehmensvereinbarungen oder API-Nutzungen fallen, wodurch unterschiedliche Richtlinien für verschiedene Nutzersegmente gewährleistet werden."
  • question: "Welche Claude-Dienste und Nutzertypen sind von diesen neuen Richtlinienaktualisierungen betroffen und welche nicht?" answer: "Die aktualisierten Nutzungsbedingungen und die Datenschutzrichtlinie gelten spezifisch für Einzelnutzer von Anthropic's Claude Free-, Pro- und Max-Plänen. Dies schließt Fälle ein, in denen Nutzer über Konten, die mit diesen Verbraucherplänen verbunden sind, mit Claude Code interagieren. Es ist jedoch entscheidend zu verstehen, dass diese Aktualisierungen nicht auf Dienste ausgedehnt werden, die unter Anthropic's 'kommerziellen Bedingungen' betrieben werden. Das bedeutet, dass Claude for Work (einschließlich Team- und Enterprise-Pläne), Claude for Government, Claude for Education und alle API-Nutzungen – sei es direkt oder über Drittanbieterplattformen wie Amazon Bedrock oder Google Cloud's Vertex AI – explizit von diesen neuen verbraucherorientierten Richtlinienänderungen ausgeschlossen sind. Kommerzielle Nutzer und API-Integratoren werden weiterhin unter ihren bestehenden Vereinbarungen arbeiten, die separate Datenschutz- und Datenverarbeitungsbestimmungen enthalten."
  • question: "Warum nimmt Anthropic diese Änderungen vor, insbesondere in Bezug auf die Datennutzung für das Modelltraining und die verlängerte Aufbewahrung?" answer: "Anthropic gibt an, dass diese Änderungen durch die grundlegende Notwendigkeit motiviert sind, die Leistungsfähigkeit, Sicherheit und Nützlichkeit großer Sprachmodelle wie Claude kontinuierlich zu verbessern. Echte Interaktionen liefern unschätzbare Datensignale, die den Modellen helfen zu lernen, welche Antworten am hilfreichsten, genauesten und sichersten sind. Zum Beispiel bieten Entwickler, die Code mit Claude debuggen, entscheidende Einblicke zur Verbesserung zukünftiger Codierungsfähigkeiten. Die verlängerte fünfjährige Datenaufbewahrung, speziell für Nutzer, die sich dafür entscheiden, ist darauf ausgelegt, die langen Entwicklungszyklen von KI zu unterstützen und die Datenkonsistenz für stabilere Modell-Upgrades zu gewährleisten sowie die Wirksamkeit interner Klassifikatoren zu verbessern, die schädliche Nutzungsmuster wie 'Missbrauch' oder 'Spam' über längere Zeiträume erkennen und mindern, wodurch Claude letztendlich für alle sicherer wird."
  • question: "Welche Schritte müssen bestehende und neue Claude-Nutzer in Bezug auf diese Richtlinienaktualisierungen und ihre Datenpräferenzen unternehmen?" answer: "Bestehende Claude-Nutzer erhalten eine In-App-Benachrichtigung, die sie auffordert, die Aktualisierungen zu überprüfen und eine Entscheidung zu treffen, ob ihre Chats und Coding-Sitzungen zur Modellverbesserung verwendet werden dürfen. Nutzer haben bis zum 8. Oktober 2025 Zeit, diese Auswahl zu treffen. Wenn sie sich früher entscheiden, gelten die neuen Richtlinien sofort für neue oder wieder aufgenommene Chats. Nach der Frist ist eine Auswahl obligatorisch, um Claude weiterhin nutzen zu können. Neuen Nutzern wird diese Wahl als Teil des anfänglichen Anmeldeprozesses präsentiert. Unabhängig davon, ob es sich um einen neuen oder bestehenden Nutzer handelt, kann die Präferenz jederzeit über die speziellen Datenschutzeinstellungen innerhalb der Claude-Oberfläche geändert werden, was eine kontinuierliche Kontrolle über die persönliche Datennutzung und Transparenz bietet."
  • question: "Was passiert, wenn ein Nutzer Daten zunächst für das Modelltraining zulässt, sich aber später umentscheidet und sich abmeldet?" answer: "Anthropic betont, dass Nutzer die volle Kontrolle über ihre Datenpräferenzen behalten und ihre Auswahl jederzeit über ihre Datenschutzeinstellungen aktualisieren können. Wenn ein Nutzer sich zunächst für das Modelltraining entscheidet und diese Einstellung später deaktiviert, werden neue Chats und Coding-Sitzungen mit Claude nicht mehr für zukünftige Modelltrainingläufe verwendet. Es ist jedoch wichtig zu beachten, dass Daten aus zuvor abgeschlossenen Modelltrainingläufen und bereits veröffentlichten Modellen möglicherweise immer noch Daten aus ihren früheren Interaktionen enthalten können. Dennoch verpflichtet sich Anthropic, die Nutzung dieser zuvor gespeicherten Chats und Coding-Sitzungen in zukünftigen Modelltrainingsiterationen einzustellen, sobald die Abmelde-Präferenz registriert ist, wodurch die aktualisierte Wahl des Nutzers für die laufende Datennutzung und den Datenschutz respektiert wird."
  • question: "Wie gewährleistet Anthropic den Datenschutz und die Datensicherheit der Nutzer mit diesen neuen Richtlinien, insbesondere bei verlängerter Aufbewahrung?" answer: "Um die Privatsphäre der Nutzer zu schützen, setzt Anthropic eine Kombination aus fortschrittlichen Tools und automatisierten Prozessen ein, die darauf ausgelegt sind, sensible Daten zu filtern oder zu verschleiern, bevor sie für das Modelltraining verwendet werden, auch bei verlängerter Aufbewahrungsfrist für zugestimmte Nutzer. Das Unternehmen erklärt ausdrücklich, dass es Nutzerdaten nicht an Dritte verkauft, was sein Engagement für den Datenschutz bekräftigt. Darüber hinaus behalten Nutzer die Kontrolle: Das Löschen einer Konversation stellt sicher, dass sie nicht für zukünftige Modelltrainings verwendet wird, und das Ändern der Opt-in-Einstellung verhindert, dass neue Chats verwendet werden. Diese Maßnahmen zielen darauf ab, die Notwendigkeit datengesteuerter Modellverbesserungen mit strengen Datenschutzvorkehrungen in Einklang zu bringen und so das Vertrauen der Nutzer und die Datensicherheit während des gesamten KI-Entwicklungszyklus zu gewährleisten. Dieser umfassende Ansatz unterstreicht Anthropic's Engagement für verantwortungsvolle KI-Praktiken."

# Anthropic führt wichtige Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie von Claude für Verbraucher ein

Anthropic, ein führendes KI-Forschungsunternehmen, hat wesentliche Aktualisierungen seiner Nutzungsbedingungen und Datenschutzrichtlinie für Nutzer seiner Claude AI-Modelle bekannt gegeben. Diese Änderungen, die am 28. August 2025 in Kraft treten, sollen Nutzern eine größere Kontrolle über ihre Daten ermöglichen und Anthropic gleichzeitig in die Lage versetzen, leistungsfähigere und sicherere KI-Systeme zu entwickeln. Der Kern dieser Aktualisierungen konzentriert sich auf einen Opt-in-Mechanismus für die Datennutzung im Modelltraining und eine verlängerte Datenaufbewahrungsfrist für diejenigen, die teilnehmen.

Dieser Schritt spiegelt einen wachsenden Branchentrend wider, der auf mehr Transparenz und Nutzerkontrolle bei der Entwicklung künstlicher Intelligenz abzielt. Indem Anthropic Nutzern die aktive Wahl lässt, ob ihre Interaktionen zu Claudes Lernprozess beitragen, will das Unternehmen ein kollaboratives Umfeld fördern, das sowohl einzelnen Nutzern als auch dem gesamten KI-Ökosystem zugutekommt. Diese strategische Weiterentwicklung der verbraucherorientierten Richtlinien unterstreicht das Engagement des Unternehmens für eine verantwortungsvolle KI-Entwicklung und das Vertrauen der Nutzer.

## Claude mit nutzergesteuerten Einblicken und Schutzmaßnahmen verbessern

Die primäre Änderung in Anthropic's aktualisierter Richtlinie ist die Einführung einer Nutzerentscheidung bezüglich der Datennutzung zur Modellverbesserung. Nutzer der Claude Free-, Pro- und Max-Pläne, einschließlich derer, die Claude Code von verbundenen Konten nutzen, haben nun die Möglichkeit, ihre Daten für das Training zukünftiger Claude-Modelle zu verwenden. Diese Teilnahme wird als entscheidender Schritt zum Aufbau robusterer und intelligenterer KI positioniert.

Die Zustimmung zu dieser Datennutzung bietet mehrere direkte Vorteile. Laut Anthropic liefern Nutzerinteraktionen wertvolle Einblicke aus der Praxis, die helfen, die Sicherheitsprotokolle der Modelle zu verfeinern, wodurch die Systeme zur Erkennung schädlicher Inhalte genauer und weniger anfällig für die Kennzeichnung harmloser Konversationen werden. Über die Sicherheit hinaus wird erwartet, dass Nutzerdaten die Kernfähigkeiten von Claude erheblich verbessern, wie z. B. die Codierungsfähigkeiten, das analytische Denken und komplexe Problemlösungsfähigkeiten. Dieser Rückkopplungsprozess ist entscheidend für die kontinuierliche Entwicklung großer Sprachmodelle und führt zu verfeinerten und nützlicheren KI-Tools für alle.

Es ist wichtig, den spezifischen Umfang dieser Aktualisierungen zu beachten. Obwohl sie für Konten der Verbraucherstufe gelten, erstrecken sich diese Richtlinienänderungen ausdrücklich **nicht** auf Dienste, die durch Anthropic’s kommerzielle Bedingungen geregelt sind. Dies umfasst Claude for Work, Claude for Government, Claude for Education und alle API-Nutzungen, sei es direkt oder über Drittanbieterplattformen wie Amazon Bedrock oder Google Cloud’s Vertex AI. Diese Unterscheidung stellt sicher, dass kommerzielle Kunden und Partner auf Unternehmensebene ihre bestehenden, oft maßgeschneiderten, Datenvereinbarungen und Datenschutzrahmen beibehalten. Für Nutzer, die Dienste wie [Amazon Bedrock AgentCore](/de/amazon-bedrock-agentcore) nutzen, bleiben separate Vereinbarungen in Kraft.

## Ihre Wahlmöglichkeiten: Opt-in und Fristen

Anthropic ist bestrebt, Nutzern eine klare Kontrolle über ihre Daten zu geben. Sowohl neue als auch bestehende Claude-Nutzer werden auf unterschiedliche Prozesse zur Auswahl ihrer Datenfreigabe stoßen. Neue Nutzer, die sich für Claude anmelden, finden die Option zur Auswahl ihrer Präferenz für das Modelltraining als integralen Bestandteil des Onboarding-Prozesses, wodurch sie ihre Datenschutzeinstellungen von Anfang an definieren können.

Für bestehende Nutzer hat Anthropic eine schrittweise Einführung von In-App-Benachrichtigungen begonnen. Diese Pop-up-Fenster fordern die Nutzer auf, die aktualisierten Nutzungsbedingungen und die Datenschutzrichtlinie zu überprüfen und zu entscheiden, ob ihre Daten für die Modellverbesserung verwendet werden dürfen. Nutzer haben eine Schonfrist bis zum **8. Oktober 2025**, um ihre Auswahl zu treffen. Wenn ein bestehender Nutzer die neuen Richtlinien akzeptiert und sich vor dieser Frist dafür entscheidet, treten diese Änderungen sofort für alle neuen oder wieder aufgenommenen Chats und Coding-Sitzungen in Kraft. Es ist für Nutzer entscheidend, bis zum angegebenen Datum eine Wahl zu treffen, da die weitere Nutzung von Claude nach dem 8. Oktober 2025 eine Auswahl der Einstellung für das Modelltraining erfordert. Dies stellt sicher, dass Nutzer aktiv an der Gestaltung ihrer Privatsphäre beteiligt sind.

Entscheidend ist, dass die Nutzerkontrolle keine einmalige Entscheidung ist. Anthropic betont, dass Präferenzen jederzeit über den speziellen Bereich 'Datenschutzeinstellungen' innerhalb der Claude-Oberfläche angepasst werden können. Diese Flexibilität unterstreicht das Engagement des Unternehmens für eine kontinuierliche Nutzerautonomie in Bezug auf ihre persönlichen Daten.

## Richtlinienvergleich: Datennutzung und Datenaufbewahrung

Zur Verdeutlichung der Auswirkungen dieser Aktualisierungen fasst die folgende Tabelle die Hauptunterschiede zwischen dem Opt-in und Opt-out der Datennutzung für das Modelltraining unter den neuen Nutzungsbedingungen zusammen:

| Merkmal                   | Opt-in für Modelltraining (Neue Richtlinie)                            | Opt-out (Bestehende/Standardrichtlinie)                         |
| :------------------------ | :--------------------------------------------------------------------- | :-------------------------------------------------------------- |
| **Datennutzung**          | Neue/wieder aufgenommene Chats & Coding-Sitzungen werden für Modellverbesserung & Sicherheit genutzt. | Neue/wieder aufgenommene Chats & Coding-Sitzungen werden **nicht** für Modelltraining genutzt. |
| **Datenaufbewahrungsdauer** | 5 Jahre für Opt-in-Daten.                                              | 30 Tage für alle Daten.                                         |
| **Gilt für**              | Claude Free-, Pro-, Max-Konten & Claude Code-Sitzungen.                | Claude Free-, Pro-, Max-Konten & Claude Code-Sitzungen.         |
| **Ausschlüsse**           | Kommerzielle Bedingungen, API, Amazon Bedrock, Google Vertex AI Dienste. | Gleiche Ausschlüsse.                                            |

## Strategische Datenaufbewahrung für die langfristige KI-Entwicklung

Neben dem Opt-in für das Modelltraining führt Anthropic auch eine verlängerte Datenaufbewahrungsfrist für Nutzer ein, die sich dafür entscheiden, teilzunehmen. Wenn ein Nutzer sich entscheidet, seine Daten zur Modellverbesserung zuzulassen, wird die Aufbewahrungsfrist für neue oder wieder aufgenommene Chats und Coding-Sitzungen auf fünf Jahre verlängert. Für Nutzer, die sich nicht dafür entscheiden, gilt weiterhin die bestehende 30-tägige Datenaufbewahrungsfrist. Diese verlängerte Aufbewahrung umfasst auch Rückmeldungen zu Claudes Antworten auf Prompts.

Die Begründung für die fünfjährige Aufbewahrungsfrist liegt tief in den Realitäten der fortschrittlichen KI-Entwicklung. Große Sprachmodelle durchlaufen Entwicklungszyklen, die oft 18 bis 24 Monate vor der Veröffentlichung umfassen. Die Aufrechterhaltung der Datenkonsistenz über längere Zeiträume ist entscheidend für die Schaffung stabilerer und vorhersehbarerer Modelle. Konsistente Daten ermöglichen es, Modelle auf ähnliche Weise zu trainieren und zu verfeinern, was zu reibungsloseren Übergängen und Upgrades für die Nutzer führt.

Darüber hinaus trägt die verlängerte Aufbewahrung erheblich zur Verbesserung von Anthropic’s internen Klassifikatoren bei – den ausgeklügelten Systemen, die zur Identifizierung und Bekämpfung von Missbrauch, Spam und anderen schädlichen Mustern eingesetzt werden. Diese Sicherheitsmechanismen werden effektiver, indem sie aus Daten lernen, die über längere Zeiträume gesammelt wurden, was Claudes Fähigkeit verbessert, ein sicheres und nützliches Werkzeug für alle zu bleiben. Anthropic engagiert sich auch in breiteren Diskussionen zur KI-Sicherheit, wie Initiativen wie [The Anthropic Institute](/de/the-anthropic-institute) hervorheben.

Um die Privatsphäre der Nutzer zu schützen, setzt Anthropic eine Kombination aus fortschrittlichen Tools und automatisierten Prozessen ein, um sensible Daten zu filtern oder zu verschleiern, bevor sie für Modelltraining oder -analyse verwendet werden. Das Unternehmen erklärt nachdrücklich, dass es Nutzerdaten nicht an Dritte verkauft, was sein Engagement für den Datenschutz auch bei der verlängerten Aufbewahrung für zugestimmte Daten unterstreicht. Nutzer behalten die Kontrolle über ihre Daten, auch nachdem sie zugestimmt haben; das Löschen einer bestimmten Konversation stellt sicher, dass sie nicht für zukünftiges Modelltraining verwendet wird.

## Nutzerermächtigung und Daten-Governance

Anthropic's aktualisierte Nutzungsbedingungen und Datenschutzrichtlinie unterstreichen einen nutzerzentrierten Ansatz bei der KI-Entwicklung. Indem die Wahl, zur Modellverbesserung beizutragen, direkt in die Hände des Nutzers gelegt wird, möchte das Unternehmen eine transparentere und kollaborativere Beziehung fördern. Die Möglichkeit, diese Präferenzen jederzeit zu ändern, stellt sicher, dass Nutzer die kontinuierliche Kontrolle über den Verlauf ihrer Daten behalten.

Sollte ein Nutzer sich zunächst für das Modelltraining entscheiden, aber später seine Meinung ändern und sich abmelden, hat Anthropic eine klare Richtlinie. Während Daten, die in zuvor abgeschlossenen Modelltrainingläufen und bereits veröffentlichten Modellen verwendet wurden, möglicherweise noch in diesen Versionen existieren, werden *neue* Chats und Coding-Sitzungen nach der Abmeldeentscheidung nicht für zukünftiges Training verwendet. Das Unternehmen verpflichtet sich, die Nutzung zuvor gespeicherter Chats und Coding-Sitzungen in *zukünftigen* Modelltrainingsiterationen einzustellen, sobald die Präferenz aktualisiert wurde. Dies bietet einen robusten Mechanismus, mit dem Nutzer ihre Datenschutzeinstellungen dynamisch verwalten können.

Diese Aktualisierungen stellen einen wohlüberlegten Schritt dar, um das immense Potenzial datengesteuerter KI-Innovationen mit der überragenden Bedeutung von Nutzerdatenschutz und Transparenz in Einklang zu bringen. Da KI-Modelle zunehmend in den Alltag integriert werden, sind Richtlinien wie diese entscheidend für den Aufbau von Vertrauen und die Gewährleistung einer ethischen Entwicklung.

Häufig gestellte Fragen

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Bleiben Sie informiert

Erhalten Sie die neuesten KI-Nachrichten per E-Mail.

Teilen