Code Velocity
Modely AI

Anthropic Claude: Aktualizácie Podmienok pre spotrebiteľov a Zásad ochrany osobných údajov

·5 min čítania·Anthropic·Pôvodný zdroj
Zdieľať
Obrazovka s upozornením na aktualizáciu Podmienok pre spotrebiteľov a Zásad ochrany osobných údajov Anthropic Claude

Anthropic zavádza kľúčové aktualizácie Podmienok pre spotrebiteľov a Zásad ochrany osobných údajov pre Claude

Anthropic, popredná spoločnosť zaoberajúca sa výskumom AI, oznámila významné aktualizácie svojich Podmienok pre spotrebiteľov a Zásad ochrany osobných údajov pre používateľov svojich modelov AI Claude. Tieto zmeny, účinné od 28. augusta 2025, sú navrhnuté tak, aby používateľom poskytli väčšiu kontrolu nad ich dátami a zároveň umožnili spoločnosti Anthropic vyvíjať schopnejšie a bezpečnejšie AI systémy. Jadro týchto aktualizácií sa sústreďuje na mechanizmus dobrovoľného prihlásenia pre používanie dát pri trénovaní modelu a predĺžené obdobie uchovávania dát pre tých, ktorí sa zúčastnia.

Tento krok odráža rastúci trend v odvetví smerom k väčšej transparentnosti a možnostiach pre používateľov vo vývoji umelej inteligencie. Tým, že Anthropic umožňuje používateľom aktívne si zvoliť, či ich interakcie prispievajú k učeniu Claude, snaží sa podporiť prostredie spolupráce, ktoré je prínosné pre individuálnych používateľov aj pre širší ekosystém AI. Tento strategický vývoj politík zameraných na spotrebiteľov podčiarkuje záväzok spoločnosti k zodpovednému vývoju AI a dôvere používateľov.

Zlepšovanie Claude prostredníctvom poznatkov a ochrany riadenej používateľmi

Hlavnou zmenou v aktualizovanej politike spoločnosti Anthropic je zavedenie možnosti výberu pre používateľov týkajúcej sa využívania dát na zlepšenie modelu. Používatelia plánov Claude Free, Pro a Max, vrátane tých, ktorí využívajú Claude Code z pridružených účtov, budú mať teraz možnosť povoliť, aby ich dáta prispievali k trénovaniu budúcich modelov Claude. Táto účasť je vnímaná ako kľúčový krok k budovaniu robustnejšej a inteligentnejšej AI.

Prihlásenie sa k tomuto používaniu dát ponúka niekoľko priamych výhod. Podľa spoločnosti Anthropic interakcie používateľov poskytujú cenné poznatky z reálneho sveta, ktoré pomáhajú spresňovať bezpečnostné protokoly modelu, čím sa systémy na detekciu škodlivého obsahu stávajú presnejšími a menej náchylnými na označovanie neškodných konverzácií. Okrem bezpečnosti sa očakáva, že používateľské dáta výrazne zlepšia základné schopnosti Claude, ako je zručnosť v kódovaní, analytické uvažovanie a schopnosti riešenia komplexných problémov. Táto spätná väzba je nevyhnutná pre nepretržitý vývoj veľkých jazykových modelov, čo vedie k rafinovanejším a užitočnejším nástrojom AI pre všetkých.

Je dôležité poznamenať konkrétny rozsah týchto aktualizácií. Hoci sa tieto zmeny politiky vzťahujú na účty spotrebiteľskej úrovne, výslovne sa nevzťahujú na služby riadené Obchodnými podmienkami spoločnosti Anthropic. To zahŕňa Claude for Work, Claude for Government, Claude for Education a všetky použitia API, či už priamo alebo prostredníctvom platforiem tretích strán, ako sú Amazon Bedrock alebo Google Cloud’s Vertex AI. Toto rozlíšenie zabezpečuje, že komerční klienti a partneri na podnikovej úrovni si zachovávajú svoje existujúce, často na mieru šité, dátové dohody a rámce ochrany osobných údajov. Pre používateľov využívajúcich služby ako Amazon Bedrock AgentCore platia samostatné dohody.

Orientácia vo vašich voľbách: Prihlásenie a termíny

Anthropic sa zaväzuje poskytovať používateľom jasnú kontrolu nad ich dátami. Noví aj existujúci používatelia Claude sa stretnú s odlišnými procesmi pre výber svojich preferencií zdieľania dát. Noví používatelia, ktorí sa registrujú do Claude, nájdu možnosť zvoliť si svoju preferenciu pre trénovanie modelu ako neoddeliteľnú súčasť procesu registrácie, čo im umožní definovať svoje nastavenia súkromia hneď od začiatku.

Pre existujúcich používateľov Anthropic spustil fázované zavádzanie upozornení v aplikácii. Tieto vyskakovacie okná vyzvú používateľov, aby si preverili aktualizované Podmienky pre spotrebiteľov a Zásady ochrany osobných údajov a rozhodli sa, či povolia používanie svojich dát na zlepšenie modelu. Používatelia majú čas do 8. októbra 2025 na vykonanie svojho výberu. Ak sa existujúci používateľ rozhodne prijať nové zásady a prihlásiť sa pred týmto termínom, tieto zmeny nadobudnú účinnosť okamžite pre všetky nové alebo obnovené chaty a kódovacie relácie. Je kľúčové, aby si používatelia vybrali do určeného dátumu, pretože ďalšie používanie Claude po 8. októbri 2025 si bude vyžadovať výber v nastavení trénovania modelu. To zaisťuje, že používatelia sa aktívne podieľajú na formovaní svojho prostredia súkromia.

Kľúčové je, že kontrola používateľa nie je jednorazové rozhodnutie. Anthropic zdôrazňuje, že preferencie je možné kedykoľvek upraviť prostredníctvom vyhradenej sekcie Nastavenia súkromia v rozhraní Claude. Táto flexibilita podčiarkuje záväzok spoločnosti k nepretržitej autonómii používateľov v súvislosti s ich osobnými dátami.

Porovnanie zásad: Používanie dát a uchovávanie

Na objasnenie vplyvu týchto aktualizácií nasledujúca tabuľka sumarizuje kľúčové rozdiely medzi prihlásením sa a odhlásením sa z používania dát na trénovanie modelu podľa nových Podmienok pre spotrebiteľov:

FunkciaPrihlásenie na trénovanie modelu (Nová politika)Odhlásenie (Existujúca/predvolená politika)
Používanie dátNové/obnovené chaty a kódovacie relácie použité na zlepšenie modelu a bezpečnosť.Nové/obnovené chaty a kódovacie relácie nepoužité na trénovanie modelu.
Obdobie uchovávania dát5 rokov pre dáta, ku ktorým sa používateľ prihlásil.30 dní pre všetky dáta.
Vzťahuje sa naÚčty Claude Free, Pro, Max a relácie Claude Code.Účty Claude Free, Pro, Max a relácie Claude Code.
VýnimkyObchodné podmienky, API, Amazon Bedrock, služby Google Vertex AI.Rovnaké výnimky.

Strategické uchovávanie dát pre dlhodobý vývoj AI

Popri dobrovoľnom prihlásení na trénovanie modelu Anthropic zavádza aj predĺžené obdobie uchovávania dát pre používateľov, ktorí sa rozhodnú zúčastniť. Ak sa používateľ rozhodne povoliť používanie svojich dát na zlepšenie modelu, obdobie uchovávania pre nové alebo obnovené chaty a kódovacie relácie sa predĺži na päť rokov. Pre používateľov, ktorí sa neprihlásia, bude naďalej platiť existujúce 30-dňové obdobie uchovávania dát. Toto predĺžené uchovávanie pokrýva aj spätnú väzbu odoslanú o odpovediach Claude na výzvy.

Dôvod päťročného obdobia uchovávania dát je hlboko zakorenený v realite pokročilého vývoja AI. Veľké jazykové modely prechádzajú vývojovými cyklami, ktoré často trvajú 18 až 24 mesiacov pred vydaním. Udržiavanie dátovej konzistencie počas dlhších období je životne dôležité pre vytváranie stabilnejších a predvídateľnejších modelov. Konzistentné dáta umožňujú trénovanie a spresňovanie modelov podobnými spôsobmi, čo vedie k plynulejším prechodom a aktualizáciám pre používateľov.

Okrem toho, predĺžené uchovávanie výrazne pomáha pri zlepšovaní interných klasifikátorov Anthropic – sofistikovaných systémov používaných na identifikáciu a potlačenie zneužívania, zneužitia, spamu a iných škodlivých vzorcov. Tieto bezpečnostné mechanizmy sa stávajú účinnejšími učením sa z dát zhromaždených počas dlhších období, čím sa zvyšuje schopnosť Claude zostať bezpečným a užitočným nástrojom pre všetkých. Anthropic sa tiež zaväzuje k širším diskusiám o bezpečnosti AI, ako zdôrazňujú iniciatívy ako The Anthropic Institute.

Na ochranu súkromia používateľov spoločnosť Anthropic využíva kombináciu pokročilých nástrojov a automatizovaných procesov na filtrovanie alebo zatajenie citlivých dát predtým, ako sa použijú na akékoľvek trénovanie modelu alebo analýzu. Spoločnosť dôrazne uvádza, že nepredáva používateľské dáta tretím stranám, čím posilňuje svoj záväzok voči súkromiu aj pri predĺženom uchovávaní dát, ku ktorým sa používateľ prihlásil. Používatelia si udržiavajú kontrolu nad svojimi dátami aj po prihlásení; vymazaním konkrétnej konverzácie sa zabezpečí, že sa nebude používať na budúce trénovanie modelu.

Posilnenie postavenia používateľa a správa dát

Aktualizované Podmienky pre spotrebiteľov a Zásady ochrany osobných údajov spoločnosti Anthropic podčiarkujú prístup k vývoju AI zameraný na používateľa. Tým, že dáva možnosť prispieť k zlepšovaniu modelu priamo do rúk používateľa, spoločnosť sa snaží podporiť transparentnejší a kolaboratívnejší vzťah. Schopnosť kedykoľvek upraviť tieto preferencie zabezpečuje, že používatelia si zachovajú nepretržitú kontrolu nad cestou svojich dát.

Ak sa používateľ spočiatku prihlási na trénovanie modelu, ale neskôr sa rozhodne zmeniť názor a odhlásiť sa, Anthropic má jasnú politiku. Hoci dáta použité v predtým dokončených trénovacích cykloch modelu a už vydaných modeloch môžu stále existovať v rámci týchto verzií, žiadne nové chaty a kódovacie relácie po rozhodnutí o odhlásení nebudú použité pre budúce trénovanie. Spoločnosť sa zaväzuje zastaviť používanie predtým uložených chatov a kódovacích relácií v akýchkoľvek budúcich iteráciách trénovania modelu, akonáhle bude preferencia aktualizovaná. To ponúka robustný mechanizmus pre používateľov na dynamickú správu ich nastavení súkromia.

Tieto aktualizácie predstavujú uvážený krok k vyváženiu obrovského potenciálu inovácie AI založenej na dátach s prvoradým významom súkromia používateľov a transparentnosti. Keďže modely AI sa čoraz viac integrujú do každodenného života, politiky ako tieto sú kľúčové pre budovanie dôvery a zabezpečenie etického vývoja.

Často kladené otázky

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Buďte informovaní

Dostávajte najnovšie AI správy do schránky.

Zdieľať