Code Velocity
AI-modeller

Anthropic Claude: Oppdateringer av forbrukerbetingelser og personvernregler

·5 min lesing·Anthropic·Opprinnelig kilde
Del
Varselskjerm for oppdatering av Anthropic Claude forbrukerbetingelser og personvernregler

title: "Anthropic Claude: Oppdateringer av forbrukerbetingelser og personvernregler" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "no" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "AI-modeller" keywords:

  • Anthropic
  • Claude AI
  • Forbrukerbetingelser
  • Personvernregler
  • Databruk
  • Modelltrening
  • AI-sikkerhet
  • Datalagring
  • Brukerpreferanser
  • AI-utvikling
  • LLM-policy
  • Åpenhet meta_description: "Anthropic kunngjør viktige oppdateringer av Claudes forbrukerbetingelser og personvernregler, som gir brukere kontroll over databruk for modellforbedring og utvider datalagring for sikkerhet og utvikling." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Varselskjerm for oppdatering av Anthropic Claude forbrukerbetingelser og personvernregler" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Hva er de sentrale endringene som er introdusert i Anthropics oppdaterte forbrukerbetingelser og personvernregler for Claude-brukere?" answer: "Anthropic ruller ut betydelige oppdateringer av sine forbrukerbetingelser og personvernregler, primært sentrert rundt å gi brukere valgfrihet til å la dataene deres brukes til å forbedre Claude AI-modeller. Når denne innstillingen er aktivert, vil data fra gratis-, Pro- og Max-kontoer, inkludert Claude Code-økter, bidra til å trene nye modeller. Dette har som mål å forbedre modellens sikkerhet, nøyaktighet og evner innen områder som koding, analyse og resonnement. I tillegg, for brukere som velger å delta, vil datalagringsperioden utvides til fem år. Omvendt, hvis brukere velger å ikke delta i modelltrening, vil den eksisterende 30-dagers datalagringsregelen forbli i kraft. Disse endringene påvirker ikke kommersielle brukere under spesifikke bedriftsavtaler eller API-bruk, noe som sikrer distinkte retningslinjer for ulike brukersegmenter."
  • question: "Hvilke Claude-tjenester og brukertyper er berørt av disse nye retningslinjeoppdateringene, og hvilke er ikke?" answer: "De oppdaterte forbrukerbetingelsene og personvernreglene gjelder spesifikt for individuelle brukere på Anthropics Claude Free-, Pro- og Max-planer. Dette inkluderer tilfeller der brukere interagerer med Claude Code via kontoer tilknyttet disse forbrukerplanene. Det er imidlertid avgjørende å forstå at disse oppdateringene ikke gjelder tjenester som opererer under Anthropics kommersielle betingelser. Dette betyr at Claude for Work (inkludert Team- og Enterprise-planer), Claude for Government, Claude for Education, og all API-bruk – enten direkte eller via tredjepartsplattformer som Amazon Bedrock eller Google Cloud’s Vertex AI – er eksplisitt ekskludert fra disse nye forbrukerfokuserte retningslinjeendringene. Kommersielle brukere og API-integratorer vil fortsette å operere under sine eksisterende avtaler, som har separate bestemmelser for personvern og datahåndtering."
  • question: "Hvorfor gjør Anthropic disse endringene, spesielt angående databruk for modelltrening og utvidet lagring?" answer: "Anthropic sier at disse endringene er drevet av det grunnleggende behovet for kontinuerlig å forbedre evnen, sikkerheten og nytten av store språkmodeller som Claude. Interaksjoner i den virkelige verden gir uvurderlige datasignaler som hjelper modeller å lære hvilke svar som er mest nyttige, nøyaktige og sikre. For eksempel tilbyr utviklere som feilsøker kode med Claude, avgjørende innsikt for å forbedre fremtidige kodeevner. Den utvidede femårs datalagringen, spesifikt for brukere som velger å delta, er designet for å støtte de lange utviklingssyklusene til AI, sikre datakonsistens for mer stabile modelloppgraderinger og forbedre effektiviteten til interne klassifikatorer som oppdager og reduserer skadelige bruksmønstre som misbruk eller spam over lengre perioder, noe som til slutt gjør Claude tryggere for alle."
  • question: "Hvilke skritt må eksisterende og nye Claude-brukere ta angående disse retningslinjeoppdateringene og deres datapreferanser?" answer: "Eksisterende Claude-brukere vil motta et varsel i appen som ber dem om å gjennomgå oppdateringene og ta en beslutning om hvorvidt de vil tillate at chatt- og kodeøktene deres brukes til modellforbedring. Brukere har frist til 8. oktober 2025 med å gjøre dette valget. Hvis de velger å godta tidligere, gjelder de nye retningslinjene umiddelbart for nye eller gjenopptatte chatter. Etter fristen er det obligatorisk å ta et valg for å fortsette å bruke Claude. Nye brukere vil bli presentert med dette valget som en del av den første registreringsprosessen. Uavhengig av om man er en ny eller eksisterende bruker, kan preferansen endres når som helst via de dedikerte personverninnstillingene i Claude-grensesnittet, noe som gir kontinuerlig kontroll over personlig databruk og sikrer åpenhet."
  • question: "Hva skjer hvis en bruker i utgangspunktet tillater data for modelltrening, men senere bestemmer seg for å ombestemme seg og velge bort?" answer: "Anthropic understreker at brukere beholder full kontroll over sine datapreferanser og kan oppdatere valget sitt når som helst via personverninnstillingene. Hvis en bruker i utgangspunktet velger å delta i modelltrening og senere bestemmer seg for å slå av denne innstillingen, vil ingen 'nye' chatter og kodeøkter med Claude lenger bli brukt til fremtidige modelltreninger. Det er imidlertid viktig å merke seg at data fra tidligere fullførte modelltreninger og modeller som allerede er utgitt, fremdeles kan inneholde data fra deres tidligere interaksjoner. Ikke desto mindre forplikter Anthropic seg til å stoppe bruken av de tidligere lagrede chatt- og kodeøktene i eventuelle 'fremtidige' modelltreingsiterasjoner når fravalgspreferansen er registrert, og derved respektere brukerens oppdaterte valg for kontinuerlig databruk og personvern."
  • question: "Hvordan sikrer Anthropic brukerens personvern og databeskyttelse med disse nye retningslinjene, spesielt med utvidet lagring?" answer: "For å beskytte brukerens personvern bruker Anthropic en kombinasjon av avanserte verktøy og automatiserte prosesser designet for å filtrere eller obfuskere sensitive data før de brukes til modelltrening, selv med den utvidede lagringsperioden for brukere som har valgt å delta. Selskapet erklærer eksplisitt at det ikke selger brukerdata til tredjeparter, noe som forsterker deres forpliktelse til personvern. Videre beholder brukerne kontroll: Sletting av en samtale sikrer at den ikke vil bli brukt til fremtidig modelltrening, og endring av innstillingen for deltakelse forhindrer at nye chatter blir brukt. Disse tiltakene har som mål å balansere behovet for datadrevet modellforbedring med strenge personvern, noe som sikrer brukertillit og datasikkerhet gjennom hele AI-utviklingssyklusen. Denne omfattende tilnærmingen understreker Anthropics engasjement for ansvarlig AI-praksis."

# Anthropic ruller ut viktige oppdateringer av Claudes forbrukerbetingelser og personvernregler

Anthropic, et ledende AI-forskningsselskap, har kunngjort betydelige oppdateringer av sine forbrukerbetingelser og personvernregler for brukere av Claude AI-modellene sine. Disse endringene, som trer i kraft 28. august 2025, er utformet for å gi brukere større kontroll over dataene sine samtidig som Anthropic kan utvikle mer kapable og sikrere AI-systemer. Kjernen i disse oppdateringene er en opt-in-mekanisme for databruk i modelltrening og en utvidet datalagringsperiode for de som deltar.

Endringen reflekterer en voksende bransjetrend mot større åpenhet og brukerpåvirkning i utviklingen av kunstig intelligens. Ved å la brukere aktivt velge om deres interaksjoner bidrar til Claudes læring, har Anthropic som mål å fremme et samarbeidsmiljø som gagner både individuelle brukere og det bredere AI-økosystemet. Denne strategiske utviklingen av forbrukerrettede retningslinjer understreker selskapets forpliktelse til ansvarlig AI-utvikling og brukertillit.

## Forbedring av Claude med brukerdrevne innsikter og sikkerhetstiltak

Den primære endringen i Anthropics oppdaterte retningslinjer er innføringen av et brukervalg angående databruk for modellforbedring. Brukere på Claudes Free-, Pro- og Max-planer, inkludert de som bruker Claude Code fra tilknyttede kontoer, vil nå ha muligheten til å tillate at dataene deres bidrar til treningen av fremtidige Claude-modeller. Denne deltakelsen er posisjonert som et avgjørende skritt mot å bygge mer robuste og intelligente AI-er.

Å velge å delta i denne databruken gir flere direkte fordeler. Ifølge Anthropic gir brukerinteraksjoner verdifull innsikt fra den virkelige verden som bidrar til å forbedre modellens sikkerhetsprotokoller, noe som gjør systemene for å oppdage skadelig innhold mer nøyaktige og mindre utsatt for å flagge uskyldige samtaler. Utover sikkerhet forventes brukerdata å forbedre Claudes kjernefunksjoner betydelig, som kodeferdighet, analytisk tenkning og kompleks problemløsning. Denne tilbakemeldingssløyfen er avgjørende for den kontinuerlige utviklingen av store språkmodeller, noe som fører til mer raffinerte og nyttige AI-verktøy for alle.

Det er viktig å merke seg det spesifikke omfanget av disse oppdateringene. Selv om de gjelder for forbrukerkonti, gjelder disse retningslinjeendringene eksplisitt **ikke** for tjenester som er underlagt Anthropics kommersielle betingelser. Dette inkluderer Claude for Work, Claude for Government, Claude for Education, og all API-bruk, enten direkte eller via tredjepartsplattformer som Amazon Bedrock eller Google Cloud’s Vertex AI. Dette skillet sikrer at kommersielle kunder og partnere på bedriftsnivå beholder sine eksisterende, ofte skreddersydde, dataavtaler og personvernrammer. For brukere som benytter tjenester som [Amazon Bedrock AgentCore](/no/amazon-bedrock-agentcore), gjelder separate avtaler.

## Navigere dine valg: Opt-in og frister

Anthropic er forpliktet til å gi brukere klar kontroll over dataene sine. Både nye og eksisterende Claude-brukere vil møte distinkte prosesser for å ta sine datadelingsvalg. Nye brukere som registrerer seg for Claude vil finne muligheten til å velge sine preferanser for modelltrening som en integrert del av ombordstigningsprosessen, noe som lar dem definere sine personverninnstillinger fra starten av.

For eksisterende brukere har Anthropic igangsatt en fasevis utrulling av varsler i appen. Disse popup-vinduene vil be brukere om å gjennomgå de oppdaterte forbrukerbetingelsene og personvernreglene og bestemme om de vil tillate at dataene deres brukes til modellforbedring. Brukere har en frist til **8. oktober 2025** for å gjøre sitt valg. Hvis en eksisterende bruker velger å godta de nye retningslinjene og velge å delta før denne fristen, vil disse endringene tre i kraft umiddelbart for alle nye eller gjenopptatte chatter og kodeøkter. Det er avgjørende for brukere å ta et valg innen den angitte datoen, da fortsatt bruk av Claude etter 8. oktober 2025 vil kreve et valg for modelltreninginnstillingen. Dette sikrer at brukere er aktivt engasjert i å forme sitt personvernlandskap.

Avgjørende er at brukerkontrollen ikke er en engangsbeslutning. Anthropic understreker at preferanser kan justeres når som helst via den dedikerte seksjonen for personverninnstillinger i Claude-grensesnittet. Denne fleksibiliteten understreker selskapets forpliktelse til kontinuerlig brukerautonomi angående deres personlige data.

## Retningslinjesammenligning: Databruk og lagring

For å klargjøre virkningen av disse oppdateringene, oppsummerer følgende tabell de viktigste forskjellene mellom å velge å delta og velge bort databruk for modelltrening under de nye forbrukerbetingelsene:

| Funksjon | Valg om deltakelse i modelltrening (ny policy) | Fravalg (eksisterende/standard policy) |
| :------------------------ | :--------------------------------------------------------------------- | :---------------------------------------------------------------- |
| **Databruk** | Nye/gjenopptatte chatter og kodeøkter brukes til modellforbedring og sikkerhet. | Nye/gjenopptatte chatter og kodeøkter brukes **ikke** til modelltrening. |
| **Datalagringsperiode** | 5 år for data der bruker har valgt å delta. | 30 dager for alle data. |
| **Gjelder for** | Claude Free, Pro, Max-kontoer og Claude Code-økter. | Claude Free, Pro, Max-kontoer og Claude Code-økter. |
| **Eksklusjoner** | Kommersielle betingelser, API, Amazon Bedrock, Google Vertex AI-tjenester. | Samme eksklusjoner. |

## Strategisk datalagring for langsiktig AI-utvikling

Sammen med valget om deltakelse i modelltrening, introduserer Anthropic også en utvidet datalagringsperiode for brukere som velger å delta. Hvis en bruker velger å tillate dataene sine brukt til modellforbedring, vil lagringsperioden for nye eller gjenopptatte chatter og kodeøkter utvides til fem år. For brukere som ikke velger å delta, vil den eksisterende 30-dagers datalagringsperioden fortsette å gjelde. Denne utvidede lagringen dekker også tilbakemeldinger sendt inn om Claudes svar på spørsmål.

Begrunnelsen bak femårs lagringsperioden er dypt forankret i realitetene ved avansert AI-utvikling. Store språkmodeller gjennomgår utviklingssykluser som ofte spenner over 18 til 24 måneder før utgivelse. Å opprettholde datakonsistens over lengre perioder er avgjørende for å skape mer stabile og forutsigbare modeller. Konsistente data gjør at modeller kan trenes og foredles på lignende måter, noe som fører til jevnere overganger og oppgraderinger for brukerne.

Videre bidrar den utvidede lagringen betydelig til å forbedre Anthropics interne klassifikatorer – de sofistikerte systemene som brukes til å identifisere og motvirke misbruk, spam og andre skadelige mønstre. Disse sikkerhetsmekanismene blir mer effektive ved å lære fra data samlet over lengre perioder, noe som forbedrer Claudes evne til å forbli et trygt og nyttig verktøy for alle. Anthropic er også forpliktet til bredere AI-sikkerhetsdiskusjoner, som fremhevet av initiativer som [The Anthropic Institute](/no/the-anthropic-institute).

For å beskytte brukerens personvern bruker Anthropic en kombinasjon av avanserte verktøy og automatiserte prosesser for å filtrere eller obfuskere sensitive data før de brukes til modelltrening eller analyse. Selskapet fastslår ettertrykkelig at det ikke selger brukerdata til tredjeparter, noe som forsterker deres forpliktelse til personvern selv med den utvidede lagringen for data der bruker har valgt å delta. Brukere beholder kontroll over dataene sine selv etter å ha valgt å delta; sletting av en spesifikk samtale sikrer at den ikke vil bli brukt til fremtidig modelltrening.

## Brukerpåvirkning og datastyring

Anthropics oppdaterte forbrukerbetingelser og personvernregler understreker en brukersentrisk tilnærming til AI-utvikling. Ved å legge valget om å bidra til modellforbedring direkte i brukerens hender, har selskapet som mål å fremme et mer transparent og samarbeidende forhold. Muligheten til å endre disse preferansene når som helst sikrer at brukere beholder kontinuerlig kontroll over dataenes reise.

Skulle en bruker i utgangspunktet velge å delta i modelltrening, men senere bestemme seg for å ombestemme seg og velge bort, har Anthropic en klar policy. Mens data som er brukt i tidligere fullførte modelltreninger og allerede utgitte modeller fortsatt kan eksistere innenfor disse versjonene, vil ingen *nye* chatter og kodeøkter etter fravalgsbeslutningen bli brukt til fremtidig trening. Selskapet forplikter seg til å avbryte bruken av tidligere lagrede chatter og kodeøkter i eventuelle *fremtidige* modelltreingsiterasjoner når preferansen er oppdatert. Dette tilbyr en robust mekanisme for brukere til å administrere personverninnstillingene sine dynamisk.

Disse oppdateringene representerer et veloverveid skritt mot å balansere det enorme potensialet i datadrevet AI-innovasjon med den overordnede viktigheten av brukerpersonvern og åpenhet. Ettersom AI-modeller blir stadig mer integrert i dagliglivet, er slike retningslinjer avgjørende for å bygge tillit og sikre etisk utvikling.

Ofte stilte spørsmål

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del