Code Velocity
AI modely

Anthropic Claude: Aktualizace spotřebitelských podmínek a zásad ochrany osobních údajů

·5 min čtení·Anthropic·Původní zdroj
Sdílet
Obrazovka s oznámením o aktualizaci spotřebitelských podmínek a zásad ochrany osobních údajů Anthropic Claude

Anthropic zavádí klíčové aktualizace spotřebitelských podmínek a zásad ochrany osobních údajů pro Claude

Anthropic, přední společnost zabývající se výzkumem AI, oznámila významné aktualizace svých spotřebitelských podmínek a zásad ochrany osobních údajů pro uživatele svých modelů AI Claude. Tyto změny, platné od 28. srpna 2025, jsou navrženy tak, aby uživatelům poskytly větší kontrolu nad jejich daty a zároveň umožnily společnosti Anthropic vyvíjet schopnější a bezpečnější AI systémy. Jádrem těchto aktualizací je mechanismus přihlášení pro využívání dat při trénování modelů a prodloužená doba uchovávání dat pro ty, kteří se zúčastní.

Tento krok odráží rostoucí trend v oboru směřující k větší transparentnosti a uživatelské autonomii ve vývoji umělé inteligence. Tím, že uživatelům umožní aktivně si vybrat, zda jejich interakce přispějí k učení Claude, si Anthropic klade za cíl podpořit kolaborativní prostředí, které bude přínosem jak pro jednotlivé uživatele, tak pro širší ekosystém AI. Tento strategický vývoj spotřebitelsky orientovaných zásad podtrhuje závazek společnosti k zodpovědnému vývoji AI a důvěře uživatelů.

Vylepšení Claude pomocí poznatků a ochranných opatření řízených uživateli

Hlavní změnou v aktualizovaných zásadách společnosti Anthropic je zavedení volby uživatele ohledně využití dat pro zlepšování modelu. Uživatelé plánů Claude Free, Pro a Max, včetně těch, kteří využívají Claude Code z přidružených účtů, budou mít nyní možnost povolit, aby jejich data přispívala k trénování budoucích modelů Claude. Tato účast je považována za klíčový krok k budování robustnější a inteligentnější AI.

Přihlášení k tomuto využití dat nabízí několik přímých výhod. Podle společnosti Anthropic poskytují uživatelské interakce cenné poznatky z reálného světa, které pomáhají zpřesňovat protokoly bezpečnosti modelu, čímž se systémy pro detekci škodlivého obsahu stávají přesnějšími a méně náchylnými k označování neškodných konverzací. Kromě bezpečnosti se očekává, že uživatelská data významně zlepší Claudeovy základní schopnosti, jako je znalost kódování, analytické uvažování a schopnosti řešit složité problémy. Tato zpětná vazba je nezbytná pro neustálý vývoj velkých jazykových modelů, což vede k rafinovanějším a užitečnějším nástrojům AI pro všechny.

Je důležité si uvědomit konkrétní rozsah těchto aktualizací. I když jsou tyto změny zásad použitelné pro účty spotřebitelské úrovně, výslovně se nevztahují na služby řízené obchodními podmínkami společnosti Anthropic. To zahrnuje Claude pro práci, Claude pro vládu, Claude pro vzdělávání a veškeré použití API, ať už přímo, nebo prostřednictvím platforem třetích stran, jako je Amazon Bedrock nebo Google Cloud Vertex AI. Toto rozlišení zajišťuje, že komerční klienti a partneři na podnikové úrovni si zachovají své stávající, často na míru šité, dohody o datech a rámce ochrany soukromí. Pro uživatele využívající služby jako Amazon Bedrock AgentCore zůstávají v platnosti samostatné dohody.

Jak se orientovat ve svých volbách: Přihlášení a termíny

Anthropic se zavazuje poskytovat uživatelům jasnou kontrolu nad jejich daty. Noví i stávající uživatelé Claude se setkají s odlišnými postupy pro volbu sdílení dat. Noví uživatelé, kteří se registrují do Claude, najdou možnost výběru preferencí pro trénování modelu jako nedílnou součást procesu onboardingu, což jim umožní definovat svá nastavení soukromí hned na začátku.

Pro stávající uživatele zahájila společnost Anthropic postupné zavádění oznámení v aplikaci. Tato vyskakovací okna vyzvou uživatele k přezkoumání aktualizovaných spotřebitelských podmínek a zásad ochrany osobních údajů a k rozhodnutí, zda povolí použití svých dat pro zlepšování modelu. Uživatelé mají lhůtu do 8. října 2025, aby provedli svůj výběr. Pokud se stávající uživatel rozhodne přijmout nové zásady a přihlásit se před tímto termínem, tyto změny vstoupí v platnost okamžitě pro všechny nové nebo obnovené chaty a kódovací relace. Je klíčové, aby uživatelé provedli volbu do stanoveného data, protože další používání Claude po 8. říjnu 2025 bude vyžadovat výběr nastavení trénování modelu. Tím je zajištěno, že uživatelé se aktivně podílejí na utváření svého soukromí.

Klíčové je, že kontrola uživatele není jednorázové rozhodnutí. Anthropic zdůrazňuje, že preference lze kdykoli upravit prostřednictvím vyhrazené sekce Nastavení soukromí v rozhraní Claude. Tato flexibilita podtrhuje závazek společnosti k trvalé autonomii uživatelů ohledně jejich osobních údajů.

Srovnání zásad: Využívání dat a uchovávání

Pro objasnění dopadu těchto aktualizací následující tabulka shrnuje klíčové rozdíly mezi přihlášením a odhlášením z využívání dat pro trénování modelu podle nových spotřebitelských podmínek:

FunkcePřihlášení k trénování modelu (Nová politika)Odhlášení (Stávající/Výchozí politika)
Využívání datNové/obnovené chaty a kódovací relace používané pro zlepšení a bezpečnost modelu.Nové/obnovené chaty a kódovací relace nejsou používány pro trénování modelu.
Doba uchovávání dat5 let pro přihlášená data.30 dní pro všechna data.
Platí proÚčty Claude Free, Pro, Max a relace Claude Code.Účty Claude Free, Pro, Max a relace Claude Code.
VyloučeníObchodní podmínky, API, Amazon Bedrock, služby Google Vertex AI.Stejná vyloučení.

Strategické uchovávání dat pro dlouhodobý vývoj AI

Společně s volbou přihlášení k trénování modelu zavádí Anthropic také prodlouženou dobu uchovávání dat pro uživatele, kteří se rozhodnou zúčastnit. Pokud se uživatel rozhodne povolit svá data pro zlepšení modelu, doba uchovávání nových nebo obnovených chatů a kódovacích relací bude prodloužena na pět let. Pro uživatele, kteří se nepřihlásí, bude nadále platit stávající 30denní doba uchovávání dat. Toto prodloužené uchovávání se vztahuje i na zpětnou vazbu zaslanou ohledně odpovědí Claude na výzvy.

Odůvodnění pětileté doby uchovávání dat je hluboce zakořeněno v realitě pokročilého vývoje AI. Velké jazykové modely procházejí vývojovými cykly, které často trvají 18 až 24 měsíců před vydáním. Udržování konzistence dat po delší dobu je zásadní pro vytváření stabilnějších a předvídatelnějších modelů. Konzistentní data umožňují trénovat a zdokonalovat modely podobnými způsoby, což vede k plynulejším přechodům a aktualizacím pro uživatele.

Dále, prodloužené uchovávání významně pomáhá při zlepšování interních klasifikátorů společnosti Anthropic – sofistikovaných systémů používaných k identifikaci a potírání zneužívání, zneužití, spamu a dalších škodlivých vzorců. Tyto bezpečnostní mechanismy se stávají účinnějšími učením se z dat shromážděných po delší dobu, což zvyšuje schopnost Claude zůstat bezpečným a užitečným nástrojem pro každého. Anthropic se rovněž zavazuje k širším diskusím o bezpečnosti AI, jak zdůrazňují iniciativy jako The Anthropic Institute.

Pro ochranu soukromí uživatelů Anthropic využívá kombinaci pokročilých nástrojů a automatizovaných procesů k filtrování nebo obfuskaci citlivých dat před jejich použitím pro jakékoli trénování nebo analýzu modelu. Společnost důrazně uvádí, že neprodává uživatelská data třetím stranám, čímž posiluje svůj závazek k ochraně soukromí i při prodlouženém uchovávání dat pro přihlášené uživatele. Uživatelé si zachovávají kontrolu nad svými daty i po přihlášení; smazání konkrétní konverzace zajistí, že nebude použita pro budoucí trénování modelu.

Posílení postavení uživatelů a správa dat

Aktualizované spotřebitelské podmínky a zásady ochrany osobních údajů společnosti Anthropic podtrhují uživatelsky orientovaný přístup k vývoji AI. Tím, že společnost svěřuje volbu přispívat ke zlepšování modelu přímo do rukou uživatele, si klade za cíl podporovat transparentnější a kolaborativnější vztah. Možnost kdykoli upravit tyto preference zajišťuje, že uživatelé si zachovají nepřetržitou kontrolu nad cestou svých dat.

Pokud se uživatel zpočátku přihlásí k trénování modelu, ale později si to rozmyslí a rozhodne se odhlásit, Anthropic má jasnou politiku. Zatímco data použitá v dříve dokončených trénovacích bězích modelu a již vydaných modelech mohou stále existovat v těchto verzích, žádné nové chaty a kódovací relace po rozhodnutí o odhlášení nebudou použity pro budoucí trénování. Společnost se zavazuje ukončit používání dříve uložených chatů a kódovacích relací v jakýchkoli budoucích iteracích trénování modelu, jakmile bude preference aktualizována. To nabízí robustní mechanismus pro uživatele, aby mohli dynamicky spravovat svá nastavení soukromí.

Tyto aktualizace představují uvážený krok k vyvážení obrovského potenciálu inovací AI založených na datech s prvořadým významem soukromí uživatelů a transparentnosti. Jelikož se modely AI stále více integrují do každodenního života, zásady, jako jsou tyto, jsou klíčové pro budování důvěry a zajištění etického vývoje.

Často kladené dotazy

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Buďte v obraze

Dostávejte nejnovější AI zprávy do schránky.

Sdílet