title: "Anthropic Claude: Opdateringer til forbrugervilkår og privatlivspolitik" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "da" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI-modeller" keywords:
- Anthropic
- Claude AI
- Forbrugervilkår
- Privatlivspolitik
- Databrug
- Modeltræning
- AI-sikkerhed
- Datalagring
- Brugerpræferencer
- AI-udvikling
- LLM-politik
- Gennemsigtighed meta_description: "Anthropic annoncerer vigtige opdateringer til Claudes forbrugervilkår og privatlivspolitik, som giver brugere kontrol over databrug til modelforbedring og udvider datalagring for sikkerhed og udvikling." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude skærmbillede for meddelelse om opdatering af forbrugervilkår og privatlivspolitik" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Hvad er kerneændringerne i Anthropics opdaterede forbrugervilkår og privatlivspolitik for Claude-brugere?" answer: "Anthropic udruller væsentlige opdateringer til sine forbrugervilkår og privatlivspolitik, primært centreret omkring at give brugerne valget om at tillade, at deres data bruges til at forbedre Claude AI-modeller. Når denne indstilling er aktiveret, vil data fra Free-, Pro- og Max-konti, inklusive Claude Code-sessioner, bidrage til træningen af nye modeller. Dette sigter mod at forbedre modellens sikkerhed, nøjagtighed og kapaciteter inden for områder som kodning, analyse og ræsonnement. Derudover, for brugere der tilvælger ('opt-in'), vil datalagringsperioden blive udvidet til fem år. Omvendt, hvis brugere vælger ikke at tilvælge modeltræning, vil den eksisterende 30-dages datalagringspolitik fortsat være gældende. Disse ændringer påvirker ikke kommercielle brugere under specifikke virksomhedsaftaler eller API-brug, hvilket sikrer særskilte politikker for forskellige brugersegmenter."
- question: "Hvilke Claude-tjenester og brugertyper påvirkes af disse nye politikopdateringer, og hvilke gør ikke?" answer: "De opdaterede forbrugervilkår og privatlivspolitik gælder specifikt for individuelle brugere på Anthropics Claude Free-, Pro- og Max-planer. Dette inkluderer tilfælde, hvor brugere interagerer med Claude Code via konti, der er tilknyttet disse forbrugerplaner. Det er dog afgørende at forstå, at disse opdateringer ikke udvides til tjenester, der opererer under Anthropics kommercielle vilkår. Dette betyder, at Claude for Work (inklusive Team- og Enterprise-planer), Claude for Government, Claude for Education og al API-brug – hvad enten direkte eller via tredjepartsplatforme som Amazon Bedrock eller Google Cloud’s Vertex AI – er udtrykkeligt udelukket fra disse nye forbrugerfokuserede politikændringer. Kommercielle brugere og API-integratorer vil fortsat operere under deres eksisterende aftaler, som har separate bestemmelser for privatliv og datahåndtering."
- question: "Hvorfor foretager Anthropic disse ændringer, især vedrørende databrug til modeltræning og udvidet datalagring?" answer: "Anthropic angiver, at disse ændringer er drevet af det grundlæggende behov for kontinuerligt at forbedre kapaciteten, sikkerheden og anvendeligheden af store sprogmodeller som Claude. Interaktioner i den virkelige verden giver uvurderlige datasignaler, der hjælper modeller med at lære, hvilke svar der er mest nyttige, nøjagtige og sikre. For eksempel giver udviklere, der fejlfinder kode med Claude, afgørende indsigter til at forbedre fremtidige kodningskapaciteter. Den udvidede femårige datalagring, specifikt for brugere der tilvælger, er designet til at understøtte de lange udviklingscyklusser for AI, hvilket sikrer datakonsistens for mere stabile modelopgraderinger og forbedrer effektiviteten af interne klassifikatorer, der opdager og afbøder skadelige brugsmønstre såsom misbrug eller spam over længere perioder, hvilket i sidste ende gør Claude sikrere for alle."
- question: "Hvilke skridt skal eksisterende og nye Claude-brugere tage i forbindelse med disse politikopdateringer og deres datapreferencer?" answer: "Eksisterende Claude-brugere vil modtage en notifikation i appen, der beder dem om at gennemgå opdateringerne og træffe en beslutning om, hvorvidt deres chats og kodesessioner må bruges til modelforbedring. Brugere har indtil den 8. oktober 2025 til at foretage dette valg. Hvis de vælger at acceptere tidligere, gælder de nye politikker straks for nye eller genoptagne chats. Efter deadline er det obligatorisk at foretage et valg for at fortsætte med at bruge Claude. Nye brugere vil blive præsenteret for dette valg som en del af den indledende tilmeldingsproces. Uanset om man er en ny eller eksisterende bruger, kan præferencen ændres til enhver tid via de dedikerede privatlivsindstillinger inden for Claude-grænsefladen, hvilket giver kontinuerlig kontrol over personlig databrug og sikrer gennemsigtighed."
- question: "Hvad sker der, hvis en bruger i første omgang tillader data til modeltræning, men senere beslutter sig for at ændre mening og framelde sig?" answer: "Anthropic understreger, at brugere bevarer fuld kontrol over deres datapreferencer og kan opdatere deres valg til enhver tid via deres privatlivsindstillinger. Hvis en bruger i første omgang tilvælger modeltræning og senere beslutter sig for at slå denne indstilling fra, vil eventuelle nye chats og kodesessioner med Claude ikke længere blive brugt til fremtidige modeltræningskørsler. Det er dog vigtigt at bemærke, at data fra tidligere afsluttede modeltræningskørsler og modeller, der allerede er blevet udgivet, stadig kan indeholde data fra deres tidligere interaktioner. Ikke desto mindre forpligter Anthropic sig til at stoppe brugen af de tidligere lagrede chats og kodesessioner i eventuelle fremtidige modeltræningsiterationer, når fravalgspræferencen er registreret, og derved respektere brugerens opdaterede valg for løbende databrug og privatliv."
- question: "Hvordan sikrer Anthropic brugerens privatliv og databeskyttelse med disse nye politikker, især med udvidet datalagring?" answer: "For at beskytte brugernes privatliv anvender Anthropic en kombination af avancerede værktøjer og automatiserede processer designet til at filtrere eller sløre følsomme data, før de bruges til modeltræning, selv med den udvidede lagringsperiode for tilvalgte brugere. Virksomheden fastslår udtrykkeligt, at den ikke sælger brugerdata til tredjeparter, hvilket forstærker dens engagement i privatlivet. Desuden bevarer brugerne kontrol: sletning af en samtale sikrer, at den ikke vil blive brugt til fremtidig modeltræning, og ændring af tilvalgsindstillingen forhindrer, at nye chats bruges. Disse foranstaltninger sigter mod at balancere behovet for datadrevet modelforbedring med strenge privatlivsbeskyttelser, hvilket sikrer brugertillid og datasikkerhed gennem hele AI-udviklingslivscyklussen. Denne omfattende tilgang understreger Anthropics dedikation til ansvarlig AI-praksis."
# Anthropic lancerer vigtige opdateringer til Claudes forbrugervilkår og privatlivspolitik
Anthropic, et førende AI-forskningsfirma, har annonceret væsentlige opdateringer til sine forbrugervilkår og privatlivspolitik for brugere af dets Claude AI-modeller. Disse ændringer, der træder i kraft den 28. august 2025, er designet til at give brugerne større kontrol over deres data, samtidig med at Anthropic kan udvikle mere kapable og sikrere AI-systemer. Kernen i disse opdateringer er en 'opt-in'-mekanisme for databrug i modeltræning og en udvidet datalagringsperiode for dem, der deltager.
Trækket afspejler en voksende branchetendens mod større gennemsigtighed og brugerindflydelse i udviklingen af kunstig intelligens. Ved at give brugerne mulighed for aktivt at vælge, om deres interaktioner bidrager til Claudes læring, sigter Anthropic mod at fremme et samarbejdsmiljø, der gavner både individuelle brugere og det bredere AI-økosystem. Denne strategiske udvikling af forbrugerrettede politikker understreger virksomhedens engagement i ansvarlig AI-udvikling og brugertillid.
## Forbedring af Claude med brugerdrevne indsigter og sikkerhedsforanstaltninger
Den primære ændring i Anthropics opdaterede politik er introduktionen af et brugervalg vedrørende dataudnyttelse til modelforbedring. Brugere på Claudes Free-, Pro- og Max-planer, inklusive dem, der anvender Claude Code fra tilknyttede konti, vil nu have mulighed for at give tilladelse til, at deres data bidrager til træningen af fremtidige Claude-modeller. Denne deltagelse positioneres som et afgørende skridt mod at bygge mere robuste og intelligente AI-systemer.
At tilvælge denne databrug giver flere direkte fordele. Ifølge Anthropic giver brugerinteraktioner værdifulde real-world indsigter, der hjælper med at forfine modelsikkerhedsprotokoller, hvilket gør systemerne til at opdage skadeligt indhold mere nøjagtige og mindre tilbøjelige til at markere harmløse samtaler. Udover sikkerhed forventes brugerdata at forbedre Claudes kernefunktioner betydeligt, såsom kodefærdigheder, analytisk ræsonnement og komplekse problemløsningsevner. Denne feedback-loop er afgørende for den kontinuerlige udvikling af store sprogmodeller, hvilket fører til mere raffinerede og nyttige AI-værktøjer for alle.
Det er vigtigt at bemærke det specifikke omfang af disse opdateringer. Selvom de gælder for forbrugerkonti, omfatter disse politikændringer udtrykkeligt **ikke** tjenester, der er omfattet af Anthropics kommercielle vilkår. Dette inkluderer Claude for Work, Claude for Government, Claude for Education og al API-brug, hvad enten det er direkte eller via tredjepartsplatforme som Amazon Bedrock eller Google Cloud’s Vertex AI. Denne sondring sikrer, at kommercielle kunder og virksomhedspartnere bevarer deres eksisterende, ofte skræddersyede, dataaftaler og privatlivsrammer. For brugere, der benytter tjenester som [Amazon Bedrock AgentCore](/da/amazon-bedrock-agentcore), forbliver separate aftaler i kraft.
## Naviger i dine valg: Tilvalg og deadlines
Anthropic er forpligtet til at give brugerne klar kontrol over deres data. Både nye og eksisterende Claude-brugere vil opleve særskilte processer for at træffe deres valg om datadeling. Nye brugere, der tilmelder sig Claude, vil finde muligheden for at vælge deres præference for modeltræning som en integreret del af onboarding-processen, hvilket giver dem mulighed for at definere deres privatlivsindstillinger fra starten.
For eksisterende brugere har Anthropic indledt en faseopdelt udrulning af notifikationer i appen. Disse pop-up-vinduer vil bede brugere om at gennemgå de opdaterede forbrugervilkår og privatlivspolitik og beslutte, om de vil tillade, at deres data bruges til modelforbedring. Brugere har en frist indtil den **8. oktober 2025** til at træffe deres valg. Hvis en eksisterende bruger vælger at acceptere de nye politikker og tilvælge før denne deadline, træder disse ændringer i kraft med det samme for alle nye eller genoptagne chats og kodesessioner. Det er afgørende for brugere at træffe et valg inden den angivne dato, da fortsat brug af Claude efter den 8. oktober 2025 vil kræve et valg vedrørende indstillingen for modeltræning. Dette sikrer, at brugerne aktivt er involveret i at forme deres privatlivslandskab.
Afgørende er, at brugerkontrol ikke er en engangsbeslutning. Anthropic understreger, at præferencer kan justeres når som helst via afsnittet for privatlivsindstillinger i Claude-grænsefladen. Denne fleksibilitet understreger virksomhedens engagement i løbende brugerautonomi vedrørende deres personlige data.
## Politiksammenligning: Databrug og datalagring
For at præcisere virkningen af disse opdateringer opsummerer følgende tabel de væsentligste forskelle mellem at tilvælge og fravælge databrug til modeltræning under de nye forbrugervilkår:
| Funktion | Tilvalg for modeltræning (ny politik) | Fravalg (eksisterende/standardpolitik) |
| :------------------------ | :--------------------------------------------------------------------- | :---------------------------------------------------------------- |
| **Databrug** | Nye/genoptagne chats & kodesessioner bruges til modelforbedring & sikkerhed. | Nye/genoptagne chats & kodesessioner bruges **ikke** til modeltræning. |
| **Datalagringsperiode** | 5 år for tilvalgte data. | 30 dage for alle data. |
| **Gælder for** | Claude Free-, Pro-, Max-konti & Claude Code-sessioner. | Claude Free-, Pro-, Max-konti & Claude Code-sessioner. |
| **Undtagelser** | Kommercielle vilkår, API, Amazon Bedrock, Google Vertex AI-tjenester. | Samme undtagelser. |
## Strategisk datalagring for langsigtet AI-udvikling
Ud over tilvalget for modeltræning introducerer Anthropic også en udvidet datalagringsperiode for brugere, der vælger at deltage. Hvis en bruger vælger at tillade, at deres data bruges til modelforbedring, vil lagringsperioden for nye eller genoptagne chats og kodesessioner blive forlænget til fem år. For brugere, der ikke tilvælger, vil den eksisterende 30-dages datalagringsperiode fortsat gælde. Denne udvidede lagring dækker også feedback indsendt om Claudes svar på prompts.
Begrundelsen bag den femårige lagringsperiode er dybt forankret i realiteterne af avanceret AI-udvikling. Store sprogmodeller gennemgår udviklingscyklusser, der ofte strækker sig over 18 til 24 måneder før udgivelse. At opretholde datakonsistens over længere perioder er afgørende for at skabe mere stabile og forudsigelige modeller. Konsistente data gør det muligt at træne og forfine modeller på lignende måder, hvilket fører til glattere overgange og opgraderinger for brugerne.
Desuden bidrager den udvidede lagring betydeligt til forbedringen af Anthropics interne klassifikatorer – de sofistikerede systemer, der bruges til at identificere og imødegå misbrug, overgreb, spam og andre skadelige mønstre. Disse sikkerhedsmekanismer bliver mere effektive ved at lære af data indsamlet over længere perioder, hvilket forbedrer Claudes evne til at forblive et sikkert og gavnligt værktøj for alle. Anthropic er også engageret i bredere AI-sikkerhedsdiskussioner, som fremhævet af initiativer som [The Anthropic Institute](/da/the-anthropic-institute).
For at beskytte brugernes privatliv anvender Anthropic en kombination af avancerede værktøjer og automatiserede processer til at filtrere eller sløre følsomme data, før de bruges til modeltræning eller analyse. Virksomheden fastslår eftertrykkeligt, at den ikke sælger brugerdata til tredjeparter, hvilket forstærker dens engagement i privatlivet, selv med den udvidede lagring for tilvalgte data. Brugere bevarer kontrol over deres data, selv efter at have tilvalgt; sletning af en specifik samtale sikrer, at den ikke vil blive brugt til fremtidig modeltræning.
## Brugerempowerment og datastyring
Anthropics opdaterede forbrugervilkår og privatlivspolitik understreger en brugercentreret tilgang til AI-udvikling. Ved at lægge valget om at bidrage til modelforbedring direkte i brugerens hænder, sigter virksomheden mod at fremme et mere gennemsigtigt og samarbejdsorienteret forhold. Evnen til at ændre disse præferencer når som helst sikrer, at brugerne bevarer kontinuerlig kontrol over deres datas rejse.
Hvis en bruger i første omgang tilvælger modeltræning, men senere beslutter sig for at ændre mening og fravælge, har Anthropic en klar politik. Selvom data, der er brugt i tidligere afsluttede modeltræningskørsler og allerede udgivne modeller, stadig kan eksistere inden for disse versioner, vil eventuelle *nye* chats og kodesessioner efter fravalgsbeslutningen ikke blive brugt til fremtidig træning. Virksomheden forpligter sig til at stoppe brugen af tidligere lagrede chats og kodesessioner i eventuelle *fremtidige* modeltræningsiterationer, når præferencen er opdateret. Dette tilbyder en robust mekanisme for brugere til dynamisk at administrere deres privatlivsindstillinger.
Disse opdateringer repræsenterer et afmålt skridt mod at balancere det enorme potentiale i datadrevet AI-innovation med den altafgørende betydning af brugerens privatliv og gennemsigtighed. Efterhånden som AI-modeller i stigende grad integreres i dagligdagen, er politikker som disse afgørende for at opbygge tillid og sikre etisk udvikling.
Ofte stillede spørgsmål
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.
Hold dig opdateret
Få de seneste AI-nyheder i din indbakke.
