Anthropic rullar ut viktiga uppdateringar av Claudes konsumentvillkor och integritetspolicy
Anthropic, ett ledande AI-forskningsföretag, har tillkännagivit betydande uppdateringar av sina konsumentvillkor och integritetspolicy för användare av sina Claude AI-modeller. Dessa ändringar, som träder i kraft den 28 augusti 2025, är utformade för att ge användarna större kontroll över sin data samtidigt som de möjliggör för Anthropic att utveckla mer kapabla och säkrare AI-system. Kärnan i dessa uppdateringar är en opt-in-mekanism för dataanvändning vid modellträning och en förlängd datalagringsperiod för dem som deltar.
Flytten speglar en växande branschtrend mot större transparens och användarinflytande i utvecklingen av artificiell intelligens. Genom att låta användare aktivt välja om deras interaktioner bidrar till Claudes inlärning, syftar Anthropic till att främja en samarbetsmiljö som gynnar både enskilda användare och det bredare AI-ekosystemet. Denna strategiska utveckling av konsumentinriktade policyer understryker företagets engagemang för ansvarsfull AI-utveckling och användarförtroende.
Förbättra Claude med användardrivna insikter och säkerhetsåtgärder
Den primära förändringen i Anthropics uppdaterade policy är införandet av ett användarval gällande dataanvändning för modellförbättring. Användare på Claudes Free-, Pro- och Max-planer, inklusive de som använder Claude Code från associerade konton, kommer nu att ha möjlighet att tillåta att deras data bidrar till träningen av framtida Claude-modeller. Detta deltagande positioneras som ett avgörande steg mot att bygga mer robust och intelligent AI.
Att välja att delta i denna dataanvändning erbjuder flera direkta fördelar. Enligt Anthropic ger användarinteraktioner värdefulla verkliga insikter som hjälper till att förfina modellernas säkerhetsprotokoll, vilket gör systemen för att upptäcka skadligt innehåll mer exakta och mindre benägna att flagga harmlösa konversationer. Utöver säkerhet förväntas användardata avsevärt förbättra Claudes kärnkompetenser, såsom kodningskunskaper, analytiskt tänkande och komplex problemlösningsförmåga. Denna återkopplingsslinga är avgörande för den kontinuerliga utvecklingen av stora språkmodeller, vilket leder till mer förfinade och användbara AI-verktyg för alla.
Det är viktigt att notera den specifika omfattningen av dessa uppdateringar. Även om de är tillämpliga på konsumentnivåkonton, sträcker sig dessa policyändringar uttryckligen inte till tjänster som styrs av Anthropics kommersiella villkor. Detta inkluderar Claude for Work, Claude for Government, Claude for Education, och all API-användning, oavsett om det är direkt eller via tredjepartsplattformar som Amazon Bedrock eller Google Cloud’s Vertex AI. Denna distinktion säkerställer att kommersiella kunder och partners på företagsnivå behåller sina befintliga, ofta skräddarsydda, dataavtal och integritetsramar. För användare som utnyttjar tjänster som Amazon Bedrock AgentCore kvarstår separata avtal.
Navigera dina val: Opt-in och tidsfrister
Anthropic har åtagit sig att ge användarna tydlig kontroll över sin data. Både nya och befintliga Claude-användare kommer att möta distinkta processer för att göra sina datadelningsval. Nya användare som registrerar sig för Claude kommer att hitta alternativet att välja sin preferens för modellträning som en integrerad del av onboarding-processen, vilket gör att de kan definiera sina integritetsinställningar från början.
För befintliga användare har Anthropic inlett en fasad utrullning av aviseringar i appen. Dessa popup-fönster kommer att uppmana användare att granska de uppdaterade konsumentvillkoren och integritetspolicyn och besluta om de vill tillåta att deras data används för modellförbättring. Användare har en respitperiod fram till den 8 oktober 2025 för att göra sitt val. Om en befintlig användare väljer att acceptera de nya policyerna och väljer att delta före denna tidsfrist, kommer dessa ändringar att träda i kraft omedelbart för alla nya eller återupptagna chattar och kodningssessioner. Det är avgörande för användare att göra ett val före det angivna datumet, eftersom fortsatt användning av Claude efter den 8 oktober 2025 kommer att kräva ett val gällande inställningen för modellträning. Detta säkerställer att användarna aktivt engagerar sig i att forma sitt integritetslandskap.
Viktigt är att användarkontrollen inte är ett engångsbeslut. Anthropic betonar att preferenser kan justeras när som helst via den dedikerade sektionen för integritetsinställningar i Claude-gränssnittet. Denna flexibilitet understryker företagets engagemang för kontinuerlig användarautonomi gällande deras personliga data.
Policyjämförelse: Dataanvändning och lagring
För att tydliggöra effekten av dessa uppdateringar sammanfattar följande tabell de viktigaste skillnaderna mellan att välja att delta och att välja bort dataanvändning för modellträning enligt de nya konsumentvillkoren:
| Funktion | Opt-in för modellträning (Ny policy) | Opt-out (Befintlig/Standardpolicy) |
|---|---|---|
| Dataanvändning | Nya/återupptagna chattar & kodningssessioner används för modellförbättring & säkerhet. | Nya/återupptagna chattar & kodningssessioner används inte för modellträning. |
| Datalagringsperiod | 5 år för data som valts att delta. | 30 dagar för all data. |
| Gäller för | Claude Free, Pro, Max-konton & Claude Code-sessioner. | Claude Free, Pro, Max-konton & Claude Code-sessioner. |
| Undantag | Kommersiella villkor, API, Amazon Bedrock, Google Vertex AI-tjänster. | Samma undantag. |
Strategisk datalagring för långsiktig AI-utveckling
Vid sidan av möjligheten att välja att delta i modellträning introducerar Anthropic också en förlängd datalagringsperiod för användare som väljer att delta. Om en användare väljer att tillåta sin data för modellförbättring, kommer lagringsperioden för nya eller återupptagna chattar och kodningssessioner att förlängas till fem år. För användare som inte väljer att delta, kommer den befintliga 30-dagars datalagringsperioden att fortsätta gälla. Denna förlängda lagring omfattar även feedback som lämnats om Claudes svar på prompts.
Motiveringen bakom den femåriga lagringsperioden är djupt rotad i verkligheten av avancerad AI-utveckling. Stora språkmodeller genomgår utvecklingscykler som ofta sträcker sig över 18 till 24 månader före lansering. Att upprätthålla datakonsistens under längre perioder är avgörande för att skapa mer stabila och förutsägbara modeller. Konsekvent data gör att modeller kan tränas och förfinas på liknande sätt, vilket leder till smidigare övergångar och uppgraderingar för användarna.
Dessutom underlättar den utökade lagringen avsevärt förbättringen av Anthropics interna klassificerare – de sofistikerade systemen som används för att identifiera och motverka missbruk, spam och andra skadliga mönster. Dessa säkerhetsmekanismer blir mer effektiva genom att lära sig av data som samlats in under längre perioder, vilket förbättrar Claudes förmåga att förbli ett säkert och fördelaktigt verktyg för alla. Anthropic är också engagerad i bredare diskussioner om AI-säkerhet, vilket framhålls av initiativ som The Anthropic Institute.
För att skydda användarnas integritet använder Anthropic en kombination av avancerade verktyg och automatiserade processer för att filtrera eller dölja känslig data innan den används för modellträning eller analys. Företaget fastslår eftertryckligen att det inte säljer användardata till tredje parter, vilket förstärker dess engagemang för integritet även med den utökade lagringen för data som valts att delta. Användare behåller kontrollen över sin data även efter att ha valt att delta; att radera en specifik konversation säkerställer att den inte kommer att användas för framtida modellträning.
Användarinflytande och datastyrning
Anthropics uppdaterade konsumentvillkor och integritetspolicy understryker ett användarcentrerat tillvägagångssätt för AI-utveckling. Genom att lägga valet att bidra till modellförbättring direkt i användarens händer, syftar företaget till att främja en mer transparent och samarbetsvillig relation. Möjligheten att när som helst ändra dessa preferenser säkerställer att användare behåller kontinuerlig kontroll över sin datas resa.
Skulle en användare initialt välja att delta i modellträning men senare besluta sig för att ändra sig och välja bort, har Anthropic en tydlig policy. Medan data som använts i tidigare genomförda modellträningar och redan lanserade modeller fortfarande kan finnas i dessa versioner, kommer inga nya chattar och kodningssessioner efter bortvalet att användas för framtida träning. Företaget åtar sig att upphöra med användningen av tidigare lagrade chattar och kodningssessioner i alla framtida modellträningsiterationer när preferensen har uppdaterats. Detta erbjuder en robust mekanism för användare att dynamiskt hantera sina integritetsinställningar.
Dessa uppdateringar representerar ett avvägt steg mot att balansera den enorma potentialen hos datadriven AI-innovation med den övergripande vikten av användarnas integritet och transparens. När AI-modeller blir alltmer integrerade i det dagliga livet är policyer som dessa avgörande för att bygga förtroende och säkerställa etisk utveckling.
Vanliga frågor
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Håll dig uppdaterad
Få de senaste AI-nyheterna i din inkorg.
