Code Velocity
AI-modeller

Anthropic Claude: Uppdateringar av konsumentvillkor och integritetspolicy

·5 min läsning·Anthropic·Originalkälla
Dela
Meddelandeskärm för uppdatering av Anthropic Claudes konsumentvillkor och integritetspolicy

Anthropic rullar ut viktiga uppdateringar av Claudes konsumentvillkor och integritetspolicy

Anthropic, ett ledande AI-forskningsföretag, har tillkännagivit betydande uppdateringar av sina konsumentvillkor och integritetspolicy för användare av sina Claude AI-modeller. Dessa ändringar, som träder i kraft den 28 augusti 2025, är utformade för att ge användarna större kontroll över sin data samtidigt som de möjliggör för Anthropic att utveckla mer kapabla och säkrare AI-system. Kärnan i dessa uppdateringar är en opt-in-mekanism för dataanvändning vid modellträning och en förlängd datalagringsperiod för dem som deltar.

Flytten speglar en växande branschtrend mot större transparens och användarinflytande i utvecklingen av artificiell intelligens. Genom att låta användare aktivt välja om deras interaktioner bidrar till Claudes inlärning, syftar Anthropic till att främja en samarbetsmiljö som gynnar både enskilda användare och det bredare AI-ekosystemet. Denna strategiska utveckling av konsumentinriktade policyer understryker företagets engagemang för ansvarsfull AI-utveckling och användarförtroende.

Förbättra Claude med användardrivna insikter och säkerhetsåtgärder

Den primära förändringen i Anthropics uppdaterade policy är införandet av ett användarval gällande dataanvändning för modellförbättring. Användare på Claudes Free-, Pro- och Max-planer, inklusive de som använder Claude Code från associerade konton, kommer nu att ha möjlighet att tillåta att deras data bidrar till träningen av framtida Claude-modeller. Detta deltagande positioneras som ett avgörande steg mot att bygga mer robust och intelligent AI.

Att välja att delta i denna dataanvändning erbjuder flera direkta fördelar. Enligt Anthropic ger användarinteraktioner värdefulla verkliga insikter som hjälper till att förfina modellernas säkerhetsprotokoll, vilket gör systemen för att upptäcka skadligt innehåll mer exakta och mindre benägna att flagga harmlösa konversationer. Utöver säkerhet förväntas användardata avsevärt förbättra Claudes kärnkompetenser, såsom kodningskunskaper, analytiskt tänkande och komplex problemlösningsförmåga. Denna återkopplingsslinga är avgörande för den kontinuerliga utvecklingen av stora språkmodeller, vilket leder till mer förfinade och användbara AI-verktyg för alla.

Det är viktigt att notera den specifika omfattningen av dessa uppdateringar. Även om de är tillämpliga på konsumentnivåkonton, sträcker sig dessa policyändringar uttryckligen inte till tjänster som styrs av Anthropics kommersiella villkor. Detta inkluderar Claude for Work, Claude for Government, Claude for Education, och all API-användning, oavsett om det är direkt eller via tredjepartsplattformar som Amazon Bedrock eller Google Cloud’s Vertex AI. Denna distinktion säkerställer att kommersiella kunder och partners på företagsnivå behåller sina befintliga, ofta skräddarsydda, dataavtal och integritetsramar. För användare som utnyttjar tjänster som Amazon Bedrock AgentCore kvarstår separata avtal.

Anthropic har åtagit sig att ge användarna tydlig kontroll över sin data. Både nya och befintliga Claude-användare kommer att möta distinkta processer för att göra sina datadelningsval. Nya användare som registrerar sig för Claude kommer att hitta alternativet att välja sin preferens för modellträning som en integrerad del av onboarding-processen, vilket gör att de kan definiera sina integritetsinställningar från början.

För befintliga användare har Anthropic inlett en fasad utrullning av aviseringar i appen. Dessa popup-fönster kommer att uppmana användare att granska de uppdaterade konsumentvillkoren och integritetspolicyn och besluta om de vill tillåta att deras data används för modellförbättring. Användare har en respitperiod fram till den 8 oktober 2025 för att göra sitt val. Om en befintlig användare väljer att acceptera de nya policyerna och väljer att delta före denna tidsfrist, kommer dessa ändringar att träda i kraft omedelbart för alla nya eller återupptagna chattar och kodningssessioner. Det är avgörande för användare att göra ett val före det angivna datumet, eftersom fortsatt användning av Claude efter den 8 oktober 2025 kommer att kräva ett val gällande inställningen för modellträning. Detta säkerställer att användarna aktivt engagerar sig i att forma sitt integritetslandskap.

Viktigt är att användarkontrollen inte är ett engångsbeslut. Anthropic betonar att preferenser kan justeras när som helst via den dedikerade sektionen för integritetsinställningar i Claude-gränssnittet. Denna flexibilitet understryker företagets engagemang för kontinuerlig användarautonomi gällande deras personliga data.

Policyjämförelse: Dataanvändning och lagring

För att tydliggöra effekten av dessa uppdateringar sammanfattar följande tabell de viktigaste skillnaderna mellan att välja att delta och att välja bort dataanvändning för modellträning enligt de nya konsumentvillkoren:

FunktionOpt-in för modellträning (Ny policy)Opt-out (Befintlig/Standardpolicy)
DataanvändningNya/återupptagna chattar & kodningssessioner används för modellförbättring & säkerhet.Nya/återupptagna chattar & kodningssessioner används inte för modellträning.
Datalagringsperiod5 år för data som valts att delta.30 dagar för all data.
Gäller förClaude Free, Pro, Max-konton & Claude Code-sessioner.Claude Free, Pro, Max-konton & Claude Code-sessioner.
UndantagKommersiella villkor, API, Amazon Bedrock, Google Vertex AI-tjänster.Samma undantag.

Strategisk datalagring för långsiktig AI-utveckling

Vid sidan av möjligheten att välja att delta i modellträning introducerar Anthropic också en förlängd datalagringsperiod för användare som väljer att delta. Om en användare väljer att tillåta sin data för modellförbättring, kommer lagringsperioden för nya eller återupptagna chattar och kodningssessioner att förlängas till fem år. För användare som inte väljer att delta, kommer den befintliga 30-dagars datalagringsperioden att fortsätta gälla. Denna förlängda lagring omfattar även feedback som lämnats om Claudes svar på prompts.

Motiveringen bakom den femåriga lagringsperioden är djupt rotad i verkligheten av avancerad AI-utveckling. Stora språkmodeller genomgår utvecklingscykler som ofta sträcker sig över 18 till 24 månader före lansering. Att upprätthålla datakonsistens under längre perioder är avgörande för att skapa mer stabila och förutsägbara modeller. Konsekvent data gör att modeller kan tränas och förfinas på liknande sätt, vilket leder till smidigare övergångar och uppgraderingar för användarna.

Dessutom underlättar den utökade lagringen avsevärt förbättringen av Anthropics interna klassificerare – de sofistikerade systemen som används för att identifiera och motverka missbruk, spam och andra skadliga mönster. Dessa säkerhetsmekanismer blir mer effektiva genom att lära sig av data som samlats in under längre perioder, vilket förbättrar Claudes förmåga att förbli ett säkert och fördelaktigt verktyg för alla. Anthropic är också engagerad i bredare diskussioner om AI-säkerhet, vilket framhålls av initiativ som The Anthropic Institute.

För att skydda användarnas integritet använder Anthropic en kombination av avancerade verktyg och automatiserade processer för att filtrera eller dölja känslig data innan den används för modellträning eller analys. Företaget fastslår eftertryckligen att det inte säljer användardata till tredje parter, vilket förstärker dess engagemang för integritet även med den utökade lagringen för data som valts att delta. Användare behåller kontrollen över sin data även efter att ha valt att delta; att radera en specifik konversation säkerställer att den inte kommer att användas för framtida modellträning.

Användarinflytande och datastyrning

Anthropics uppdaterade konsumentvillkor och integritetspolicy understryker ett användarcentrerat tillvägagångssätt för AI-utveckling. Genom att lägga valet att bidra till modellförbättring direkt i användarens händer, syftar företaget till att främja en mer transparent och samarbetsvillig relation. Möjligheten att när som helst ändra dessa preferenser säkerställer att användare behåller kontinuerlig kontroll över sin datas resa.

Skulle en användare initialt välja att delta i modellträning men senare besluta sig för att ändra sig och välja bort, har Anthropic en tydlig policy. Medan data som använts i tidigare genomförda modellträningar och redan lanserade modeller fortfarande kan finnas i dessa versioner, kommer inga nya chattar och kodningssessioner efter bortvalet att användas för framtida träning. Företaget åtar sig att upphöra med användningen av tidigare lagrade chattar och kodningssessioner i alla framtida modellträningsiterationer när preferensen har uppdaterats. Detta erbjuder en robust mekanism för användare att dynamiskt hantera sina integritetsinställningar.

Dessa uppdateringar representerar ett avvägt steg mot att balansera den enorma potentialen hos datadriven AI-innovation med den övergripande vikten av användarnas integritet och transparens. När AI-modeller blir alltmer integrerade i det dagliga livet är policyer som dessa avgörande för att bygga förtroende och säkerställa etisk utveckling.

Vanliga frågor

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Håll dig uppdaterad

Få de senaste AI-nyheterna i din inkorg.

Dela