Code Velocity
KI Modelle

Anthropic Claude: Verbruikersbepalings & Privaatheidsbeleid Opdaterings

·5 min lees·Anthropic·Oorspronklike bron
Deel
Anthropic Claude Verbruikersbepalings en Privaatheidsbeleid Opdatering kennisgewingskerm

title: "Anthropic Claude: Verbruikersbepalings & Privaatheidsbeleid Opdaterings" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "af" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "KI Modelle" keywords:

  • Anthropic
  • Claude KI
  • Verbruikersbepalings
  • Privaatheidsbeleid
  • Datagebruik
  • Modelopleiding
  • KI Veiligheid
  • Databehoud
  • Gebruikervoorkeure
  • KI Ontwikkeling
  • LLM Beleid
  • Deursigtigheid meta_description: "Anthropic kondig sleutelopdaterings aan Claude se Verbruikersbepalings en Privaatheidsbeleid aan, wat gebruikers beheer gee oor datagebruik vir modelverbetering en databehoud verleng vir veiligheid en ontwikkeling." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude Verbruikersbepalings en Privaatheidsbeleid Opdatering kennisgewingskerm" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Wat is die kernveranderinge wat in Anthropic se opgedateerde Verbruikersbepalings en Privaatheidsbeleid vir Claude-gebruikers ingestel is?" answer: "Anthropic implementeer beduidende opdaterings aan sy Verbruikersbepalings en Privaatheidsbeleid, hoofsaaklik gefokus op die bemagtiging van gebruikers met die keuse om toe te laat dat hul data gebruik word vir die verbetering van Claude KI-modelle. Wanneer hierdie instelling geaktiveer is, sal data van Gratis, Pro, en Max-rekeninge, insluitend Claude Code-sessies, bydra tot die opleiding van nuwe modelle. Dit is daarop gemik om modelveiligheid, akkuraatheid en vermoëns in gebiede soos kodering, analise en redenasie te verbeter. Daarbenewens sal die databehoudtydperk vir gebruikers wat inteken, tot vyf jaar verleng word. Omgekeerd, as gebruikers kies om nie in te teken vir modelopleiding nie, sal die bestaande 30-dae databehoudbeleid van krag bly. Hierdie veranderinge raak nie kommersiële gebruikers onder spesifieke ondernemingsooreenkomste of API-gebruik nie, wat afsonderlike beleide vir verskillende gebruikersegmente verseker."
  • question: "Watter Claude-dienste en gebruikerstipes word deur hierdie nuwe beleidsopdaterings geraak, en watter nie?" answer: "Die opgedateerde Verbruikersbepalings en Privaatheidsbeleid is spesifiek van toepassing op individuele gebruikers op Anthropic se Claude Gratis-, Pro- en Max-planne. Dit sluit gevalle in waar gebruikers met Claude Code interaksie het deur rekeninge wat met hierdie verbruikersplanne geassosieer word. Dit is egter noodsaaklik om te verstaan dat hierdie opdaterings nie van toepassing is op dienste wat onder Anthropic se Kommersiële Bepalings funksioneer nie. Dit beteken dat Claude for Work (insluitend Span- en Ondernemingsplanne), Claude for Government, Claude for Education, en alle API-gebruike – hetsy direk of via derdeparty-platforms soos Amazon Bedrock of Google Cloud se Vertex AI – uitdruklik uitgesluit is van hierdie nuwe verbruiker-gefokusde beleidsveranderinge. Kommersiële gebruikers en API-integreerders sal voortgaan om onder hul bestaande ooreenkomste te funksioneer, wat afsonderlike privaatheids- en datahanteringsbepalings het."
  • question: "Waarom bring Anthropic hierdie veranderinge aan, veral met betrekking tot datagebruik vir modelopleiding en verlengde behoud?" answer: "Anthropic verklaar dat hierdie veranderinge gedryf word deur die fundamentele behoefte om die vermoë, veiligheid en nut van groot taalmodelle soos Claude voortdurend te verbeter. Werklike interaksies verskaf onskatbare data-seine wat modelle help leer watter response die nuttigste, akkuraatste en veiligste is. Byvoorbeeld, ontwikkelaars wat kode ontfout met Claude bied deurslaggewende insigte vir die verbetering van toekomstige koderingsvermoëns. Die verlengde vyf-jaar databehoud, spesifiek vir gebruikers wat inteken, is ontwerp om die lang ontwikkelingsiklusse van KI te ondersteun, wat datakonsistensie vir meer stabiele modelopgraderings verseker en die doeltreffendheid van interne klassifiseerders verbeter wat skadelike gebruikspatrone soos misbruik of strooipos oor langer tydperke opspoor en versag, wat uiteindelik Claude veiliger maak vir almal."
  • question: "Watter stappe moet bestaande en nuwe Claude-gebruikers doen met betrekking tot hierdie beleidsopdaterings en hul datavoorkeure?" answer: "Bestaande Claude-gebruikers sal 'n in-program kennisgewing ontvang wat hulle aanspoor om die opdaterings te hersien en 'n besluit te neem oor of hulle wil toelaat dat hul gesprekke en koderingsessies vir modelverbetering gebruik word. Gebruikers het tot 8 Oktober 2025 om hierdie keuse te maak. As hulle kies om vroeër te aanvaar, is die nuwe beleide onmiddellik van toepassing op nuwe of hervatte gesprekke. Na die sperdatum is dit verpligtend om 'n keuse te maak om voort te gaan met die gebruik van Claude. Nuwe gebruikers sal hierdie keuse as deel van die aanvanklike aanmeldproses voorgelê word. Ongeag of 'n mens 'n nuwe of bestaande gebruiker is, kan die voorkeur enige tyd gewysig word via die toegewyde Privaatheidsinstellings binne die Claude-koppelvlak, wat deurlopende beheer oor persoonlike datagebruik bied en deursigtigheid verseker."
  • question: "Wat gebeur as 'n gebruiker aanvanklik data vir modelopleiding toelaat, maar later besluit om van plan te verander en uit te teken?" answer: "Anthropic beklemtoon dat gebruikers volle beheer oor hul datavoorkeure behou en hul keuse enige tyd via hul Privaatheidsinstellings kan opdateer. As 'n gebruiker aanvanklik inteken vir modelopleiding en later besluit om hierdie instelling af te skakel, sal enige nuwe gesprekke en koderingsessies met Claude nie meer vir toekomstige modelopleidingslopies gebruik word nie. Dit is egter belangrik om daarop te let dat data van voorheen voltooide modelopleidingslopies en modelle wat reeds vrygestel is, steeds data van hul vorige interaksies mag bevat. Nietemin, Anthropic verbind hom daartoe om die gebruik van daardie voorheen gestoorde gesprekke en koderingsessies in enige toekomstige modelopleidingsiterasies te staak sodra die uittekenvoorkeur geregistreer is, en sodoende die gebruiker se opgedateerde keuse vir deurlopende datagebruik en privaatheid te respekteer."
  • question: "Hoe verseker Anthropic gebruikerprivaatheid en databeskerming met hierdie nuwe beleide, veral met verlengde behoud?" answer: "Om gebruikerprivaatheid te beskerm, gebruik Anthropic 'n kombinasie van gevorderde gereedskap en outomatiese prosesse wat ontwerp is om sensitiewe data te filter of te versluier voordat dit vir modelopleiding gebruik word, selfs met die verlengde behoudtydperk vir gebruikers wat inteken. Die maatskappy verklaar uitdruklik dat dit nie gebruikerdata aan derde partye verkoop nie, wat sy verbintenis tot privaatheid versterk. Verder behou gebruikers beheer: die verwydering van 'n gesprek verseker dat dit nie vir toekomstige modelopleiding gebruik sal word nie, en die verandering van die intekeninstelling verhoed dat nuwe gesprekke gebruik word. Hierdie maatreëls is daarop gemik om die behoefte aan data-gedrewe modelverbetering te balanseer met streng privaatheidsbeskerming, wat gebruikervertroue en datasekuriteit dwarsdeur die KI-ontwikkelingslewensiklus verseker. Hierdie omvattende benadering onderstreep Anthropic se toewyding aan verantwoordelike KI-praktyke."

Anthropic Rol Sleutelopdaterings vir Claude se Verbruikersbepalings en Privaatheidsbeleid Uit

Anthropic, 'n toonaangewende KI-navorsingsmaatskappy, het beduidende opdaterings aan sy Verbruikersbepalings en Privaatheidsbeleid vir gebruikers van sy Claude KI-modelle aangekondig. Hierdie veranderinge, wat op 28 Augustus 2025 in werking tree, is ontwerp om gebruikers meer beheer oor hul data te gee terwyl Anthropic gelyktydig in staat gestel word om meer bekwame en veiliger KI-stelsels te ontwikkel. Die kern van hierdie opdaterings fokus op 'n intekenmeganisme vir datagebruik in modelopleiding en 'n verlengde databehoudtydperk vir diegene wat deelneem.

Die stap weerspieël 'n groeiende tendens in die bedryf na groter deursigtigheid en gebruikersagentskap in die ontwikkeling van kunsmatige intelligensie. Deur gebruikers toe te laat om aktief te kies of hul interaksies bydra tot Claude se leerproses, beoog Anthropic om 'n samewerkende omgewing te bevorder wat beide individuele gebruikers en die breër KI-ekosisteem bevoordeel. Hierdie strategiese evolusie van verbruiker-gefokusde beleide onderstreep die maatskappy se verbintenis tot verantwoordelike KI-ontwikkeling en gebruikervertroue.

Verbetering van Claude met Gebruiker-gedrewe Insigte en Beveiligings

Die primêre verandering in Anthropic se opgedateerde beleid is die instelling van 'n gebruikerskeuse rakende datagebruik vir modelverbetering. Gebruikers op Claude se Gratis, Pro en Max-planne, insluitend diegene wat Claude Code van geassosieerde rekeninge benut, sal nou die opsie hê om hul data te laat bydra tot die opleiding van toekomstige Claude-modelle. Hierdie deelname word as 'n deurslaggewende stap beskou om meer robuuste en intelligente KI te bou.

Die keuse om in te teken vir hierdie datagebruik bied verskeie direkte voordele. Volgens Anthropic bied gebruikersinteraksies waardevolle werklike insigte wat help om modelveiligheidsprotokolle te verfyn, wat die stelsels vir die opsporing van skadelike inhoud meer akkuraat maak en minder geneig is om onskuldige gesprekke te vlag. Behalwe veiligheid, word verwag dat gebruikerdata Claude se kernvermoëns aansienlik sal verbeter, soos koderingsvaardigheid, analitiese redenasie en komplekse probleemoplossingsvaardighede. Hierdie terugvoerlus is noodsaaklik vir die deurlopende evolusie van groot taalmodelle, wat lei tot meer verfynde en nuttige KI-gereedskap vir almal.

Dit is belangrik om die spesifieke omvang van hierdie opdaterings in ag te neem. Alhoewel dit van toepassing is op verbruikersvlakrekeninge, strek hierdie beleidsveranderinge uitdruklik nie tot dienste wat deur Anthropic se Kommersiële Bepalings beheer word nie. Dit sluit in Claude for Work, Claude for Government, Claude for Education, en alle API-gebruik, hetsy direk of deur derdeparty-platforms soos Amazon Bedrock of Google Cloud se Vertex AI. Hierdie onderskeid verseker dat kommersiële kliënte en ondernemingsvlakvennote hul bestaande, dikwels pasgemaakte, data-ooreenkomste en privaatheidsraamwerke behou. Vir gebruikers wat dienste soos Amazon Bedrock AgentCore gebruik, bly afsonderlike ooreenkomste van krag.

Anthropic is daartoe verbind om gebruikers duidelike beheer oor hul data te bied. Beide nuwe en bestaande Claude-gebruikers sal verskillende prosesse teëkom vir die maak van hul datadelingskeuses. Nuwe gebruikers wat vir Claude aanmeld, sal die opsie vind om hul voorkeur vir modelopleiding as 'n integrale deel van die aanmeldproses te kies, sodat hulle hul privaatheidsinstellings van die begin af kan definieer.

Vir bestaande gebruikers het Anthropic 'n gefaseerde uitrol van in-program kennisgewings begin. Hierdie opspringvensters sal gebruikers aanspoor om die opgedateerde Verbruikersbepalings en Privaatheidsbeleid te hersien en te besluit of hulle hul data vir modelverbetering wil laat gebruik. Gebruikers het 'n grasietydperk tot 8 Oktober 2025 om hul keuse te maak. As 'n bestaande gebruiker kies om die nuwe beleide te aanvaar en in te teken voor hierdie sperdatum, sal hierdie veranderinge onmiddellik in werking tree vir alle nuwe of hervatte gesprekke en koderingsessies. Dit is deurslaggewend vir gebruikers om 'n keuse teen die gespesifiseerde datum te maak, aangesien voortgesette gebruik van Claude na 8 Oktober 2025 'n keuse oor die modelopleiding-instelling sal vereis. Dit verseker dat gebruikers aktief betrokke is by die vorming van hul privaatheidslandskap.

Deurslaggewend is dat gebruikersbeheer nie 'n eenmalige besluit is nie. Anthropic beklemtoon dat voorkeure enige tyd via die toegewyde Privaatheidsinstellings-afdeling binne die Claude-koppelvlak aangepas kan word. Hierdie buigsaamheid onderstreep die maatskappy se verbintenis tot deurlopende gebruikersoutonomie rakende hul persoonlike data.

Beleidsvergelyking: Datagebruik en Behoud

Om die impak van hierdie opdaterings te verduidelik, som die volgende tabel die sleutelverskille op tussen die intekening en uittekening vir datagebruik vir modelopleiding onder die nuwe Verbruikersbepalings:

KenmerkInteken vir Modelopleiding (Nuwe Beleid)Uitteken (Bestaande/Verstek Beleid)
DatagebruikNuwe/hervatte gesprekke & koderingsessies gebruik vir modelverbetering & veiligheid.Nuwe/hervatte gesprekke & koderingsessies nie gebruik vir modelopleiding nie.
Databehoudtydperk5 jaar vir ingeteken data.30 dae vir alle data.
Van toepassing opClaude Gratis, Pro, Max rekeninge & Claude Code sessies.Claude Gratis, Pro, Max rekeninge & Claude Code sessies.
UitsluitingsKommersiële Bepalings, API, Amazon Bedrock, Google Vertex KI dienste.Dieselfde uitsluitings.

Strategiese Databehoud vir Langtermyn KI-Ontwikkeling

Saam met die intekening vir modelopleiding, stel Anthropic ook 'n verlengde databehoudtydperk bekend vir gebruikers wat kies om deel te neem. As 'n gebruiker kies om hul data vir modelverbetering toe te laat, sal die behoudtydperk vir nuwe of hervatte gesprekke en koderingsessies tot vyf jaar verleng word. Vir gebruikers wat nie inteken nie, sal die bestaande 30-dae databehoudtydperk steeds van toepassing wees. Hierdie verlengde behoud dek ook terugvoer wat ingedien is oor Claude se antwoorde op aansporings.

Die rasionaal agter die vyf-jaar behoudtydperk is diep gewortel in die realiteite van gevorderde KI-ontwikkeling. Groot taalmodelle ondergaan ontwikkelingsiklusse wat dikwels 18 tot 24 maande voor vrystelling strek. Die handhawing van datakonsistensie oor langer tydperke is noodsaaklik vir die skep van meer stabiele en voorspelbare modelle. Konsistente data stel modelle in staat om op soortgelyke maniere opgelei en verfyn te word, wat lei tot gladder oorgange en opgraderings vir gebruikers.

Verder help die verlengde behoud aansienlik met die verbetering van Anthropic se interne klassifiseerders—die gesofistikeerde stelsels wat gebruik word om misbruik, mishandeling, strooipos en ander skadelike patrone te identifiseer en teen te werk. Hierdie veiligheidsmeganismes word meer effektief deur te leer uit data wat oor verlengde tydperke versamel is, wat Claude se vermoë verbeter om 'n veilige en voordelige hulpmiddel vir almal te bly. Anthropic is ook verbind tot breër KI-veiligheidsbesprekings, soos uitgelig deur inisiatiewe soos Die Anthropic Instituut.

Om gebruikerprivaatheid te beskerm, gebruik Anthropic 'n kombinasie van gevorderde gereedskap en outomatiese prosesse om sensitiewe data te filter of te versluier voordat dit vir enige modelopleiding of analise gebruik word. Die maatskappy verklaar nadruklik dat dit nie gebruikerdata aan derde partye verkoop nie, wat sy verbintenis tot privaatheid versterk, selfs met die verlengde behoud vir ingeteken data. Gebruikers behou beheer oor hul data selfs nadat hulle ingeteken het; die verwydering van 'n spesifieke gesprek verseker dat dit nie vir toekomstige modelopleiding gebruik sal word nie. Hierdie omvattende benadering onderstreep Anthropic se toewyding aan verantwoordelike KI-praktyke.

Gebruikerbemagtiging en Databestuur

Anthropic se opgedateerde Verbruikersbepalings en Privaatheidsbeleid onderstreep 'n gebruiker-sentriese benadering tot KI-ontwikkeling. Deur die keuse om by te dra tot modelverbetering direk in die hande van die gebruiker te plaas, beoog die maatskappy om 'n meer deursigtige en samewerkende verhouding te bevorder. Die vermoë om hierdie voorkeure enige tyd te wysig, verseker dat gebruikers deurlopende beheer oor hul data se reis behou.

Indien 'n gebruiker aanvanklik inteken vir modelopleiding, maar later besluit om van plan te verander en uit te teken, het Anthropic 'n duidelike beleid. Alhoewel data wat gebruik is in voorheen voltooide modelopleidingslopies en reeds vrygestelde modelle steeds binne daardie weergawes mag bestaan, sal enige nuwe gesprekke en koderingsessies na die uittekenbesluit nie vir toekomstige opleiding gebruik word nie. Die maatskappy verbind hom daartoe om die gebruik van voorheen gestoorde gesprekke en koderingsessies in enige toekomstige modelopleidingsiterasies te staak sodra die voorkeur opgedateer is. Dit bied 'n robuuste meganisme vir gebruikers om hul privaatheidsinstellings dinamies te bestuur.

Hierdie opdaterings verteenwoordig 'n berekende stap na die balansering van die geweldige potensiaal van data-gedrewe KI-innovasie met die uiterste belangrikheid van gebruikerprivaatheid en deursigtigheid. Soos KI-modelle toenemend in die daaglikse lewe geïntegreer word, is beleide soos hierdie deurslaggewend vir die bou van vertroue en die verseker van etiese ontwikkeling.

Gereelde Vrae

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Bly op hoogte

Kry die nuutste KI-nuus in jou inkassie.

Deel