title: "Anthropic Claude: Verbruikersbepalings & Privaatheidsbeleid Opdaterings" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "af" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "KI Modelle" keywords:
- Anthropic
- Claude KI
- Verbruikersbepalings
- Privaatheidsbeleid
- Datagebruik
- Modelopleiding
- KI Veiligheid
- Databehoud
- Gebruikervoorkeure
- KI Ontwikkeling
- LLM Beleid
- Deursigtigheid meta_description: "Anthropic kondig sleutelopdaterings aan Claude se Verbruikersbepalings en Privaatheidsbeleid aan, wat gebruikers beheer gee oor datagebruik vir modelverbetering en databehoud verleng vir veiligheid en ontwikkeling." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Anthropic Claude Verbruikersbepalings en Privaatheidsbeleid Opdatering kennisgewingskerm" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Wat is die kernveranderinge wat in Anthropic se opgedateerde Verbruikersbepalings en Privaatheidsbeleid vir Claude-gebruikers ingestel is?" answer: "Anthropic implementeer beduidende opdaterings aan sy Verbruikersbepalings en Privaatheidsbeleid, hoofsaaklik gefokus op die bemagtiging van gebruikers met die keuse om toe te laat dat hul data gebruik word vir die verbetering van Claude KI-modelle. Wanneer hierdie instelling geaktiveer is, sal data van Gratis, Pro, en Max-rekeninge, insluitend Claude Code-sessies, bydra tot die opleiding van nuwe modelle. Dit is daarop gemik om modelveiligheid, akkuraatheid en vermoëns in gebiede soos kodering, analise en redenasie te verbeter. Daarbenewens sal die databehoudtydperk vir gebruikers wat inteken, tot vyf jaar verleng word. Omgekeerd, as gebruikers kies om nie in te teken vir modelopleiding nie, sal die bestaande 30-dae databehoudbeleid van krag bly. Hierdie veranderinge raak nie kommersiële gebruikers onder spesifieke ondernemingsooreenkomste of API-gebruik nie, wat afsonderlike beleide vir verskillende gebruikersegmente verseker."
- question: "Watter Claude-dienste en gebruikerstipes word deur hierdie nuwe beleidsopdaterings geraak, en watter nie?" answer: "Die opgedateerde Verbruikersbepalings en Privaatheidsbeleid is spesifiek van toepassing op individuele gebruikers op Anthropic se Claude Gratis-, Pro- en Max-planne. Dit sluit gevalle in waar gebruikers met Claude Code interaksie het deur rekeninge wat met hierdie verbruikersplanne geassosieer word. Dit is egter noodsaaklik om te verstaan dat hierdie opdaterings nie van toepassing is op dienste wat onder Anthropic se Kommersiële Bepalings funksioneer nie. Dit beteken dat Claude for Work (insluitend Span- en Ondernemingsplanne), Claude for Government, Claude for Education, en alle API-gebruike – hetsy direk of via derdeparty-platforms soos Amazon Bedrock of Google Cloud se Vertex AI – uitdruklik uitgesluit is van hierdie nuwe verbruiker-gefokusde beleidsveranderinge. Kommersiële gebruikers en API-integreerders sal voortgaan om onder hul bestaande ooreenkomste te funksioneer, wat afsonderlike privaatheids- en datahanteringsbepalings het."
- question: "Waarom bring Anthropic hierdie veranderinge aan, veral met betrekking tot datagebruik vir modelopleiding en verlengde behoud?" answer: "Anthropic verklaar dat hierdie veranderinge gedryf word deur die fundamentele behoefte om die vermoë, veiligheid en nut van groot taalmodelle soos Claude voortdurend te verbeter. Werklike interaksies verskaf onskatbare data-seine wat modelle help leer watter response die nuttigste, akkuraatste en veiligste is. Byvoorbeeld, ontwikkelaars wat kode ontfout met Claude bied deurslaggewende insigte vir die verbetering van toekomstige koderingsvermoëns. Die verlengde vyf-jaar databehoud, spesifiek vir gebruikers wat inteken, is ontwerp om die lang ontwikkelingsiklusse van KI te ondersteun, wat datakonsistensie vir meer stabiele modelopgraderings verseker en die doeltreffendheid van interne klassifiseerders verbeter wat skadelike gebruikspatrone soos misbruik of strooipos oor langer tydperke opspoor en versag, wat uiteindelik Claude veiliger maak vir almal."
- question: "Watter stappe moet bestaande en nuwe Claude-gebruikers doen met betrekking tot hierdie beleidsopdaterings en hul datavoorkeure?" answer: "Bestaande Claude-gebruikers sal 'n in-program kennisgewing ontvang wat hulle aanspoor om die opdaterings te hersien en 'n besluit te neem oor of hulle wil toelaat dat hul gesprekke en koderingsessies vir modelverbetering gebruik word. Gebruikers het tot 8 Oktober 2025 om hierdie keuse te maak. As hulle kies om vroeër te aanvaar, is die nuwe beleide onmiddellik van toepassing op nuwe of hervatte gesprekke. Na die sperdatum is dit verpligtend om 'n keuse te maak om voort te gaan met die gebruik van Claude. Nuwe gebruikers sal hierdie keuse as deel van die aanvanklike aanmeldproses voorgelê word. Ongeag of 'n mens 'n nuwe of bestaande gebruiker is, kan die voorkeur enige tyd gewysig word via die toegewyde Privaatheidsinstellings binne die Claude-koppelvlak, wat deurlopende beheer oor persoonlike datagebruik bied en deursigtigheid verseker."
- question: "Wat gebeur as 'n gebruiker aanvanklik data vir modelopleiding toelaat, maar later besluit om van plan te verander en uit te teken?" answer: "Anthropic beklemtoon dat gebruikers volle beheer oor hul datavoorkeure behou en hul keuse enige tyd via hul Privaatheidsinstellings kan opdateer. As 'n gebruiker aanvanklik inteken vir modelopleiding en later besluit om hierdie instelling af te skakel, sal enige nuwe gesprekke en koderingsessies met Claude nie meer vir toekomstige modelopleidingslopies gebruik word nie. Dit is egter belangrik om daarop te let dat data van voorheen voltooide modelopleidingslopies en modelle wat reeds vrygestel is, steeds data van hul vorige interaksies mag bevat. Nietemin, Anthropic verbind hom daartoe om die gebruik van daardie voorheen gestoorde gesprekke en koderingsessies in enige toekomstige modelopleidingsiterasies te staak sodra die uittekenvoorkeur geregistreer is, en sodoende die gebruiker se opgedateerde keuse vir deurlopende datagebruik en privaatheid te respekteer."
- question: "Hoe verseker Anthropic gebruikerprivaatheid en databeskerming met hierdie nuwe beleide, veral met verlengde behoud?" answer: "Om gebruikerprivaatheid te beskerm, gebruik Anthropic 'n kombinasie van gevorderde gereedskap en outomatiese prosesse wat ontwerp is om sensitiewe data te filter of te versluier voordat dit vir modelopleiding gebruik word, selfs met die verlengde behoudtydperk vir gebruikers wat inteken. Die maatskappy verklaar uitdruklik dat dit nie gebruikerdata aan derde partye verkoop nie, wat sy verbintenis tot privaatheid versterk. Verder behou gebruikers beheer: die verwydering van 'n gesprek verseker dat dit nie vir toekomstige modelopleiding gebruik sal word nie, en die verandering van die intekeninstelling verhoed dat nuwe gesprekke gebruik word. Hierdie maatreëls is daarop gemik om die behoefte aan data-gedrewe modelverbetering te balanseer met streng privaatheidsbeskerming, wat gebruikervertroue en datasekuriteit dwarsdeur die KI-ontwikkelingslewensiklus verseker. Hierdie omvattende benadering onderstreep Anthropic se toewyding aan verantwoordelike KI-praktyke."
Anthropic Rol Sleutelopdaterings vir Claude se Verbruikersbepalings en Privaatheidsbeleid Uit
Anthropic, 'n toonaangewende KI-navorsingsmaatskappy, het beduidende opdaterings aan sy Verbruikersbepalings en Privaatheidsbeleid vir gebruikers van sy Claude KI-modelle aangekondig. Hierdie veranderinge, wat op 28 Augustus 2025 in werking tree, is ontwerp om gebruikers meer beheer oor hul data te gee terwyl Anthropic gelyktydig in staat gestel word om meer bekwame en veiliger KI-stelsels te ontwikkel. Die kern van hierdie opdaterings fokus op 'n intekenmeganisme vir datagebruik in modelopleiding en 'n verlengde databehoudtydperk vir diegene wat deelneem.
Die stap weerspieël 'n groeiende tendens in die bedryf na groter deursigtigheid en gebruikersagentskap in die ontwikkeling van kunsmatige intelligensie. Deur gebruikers toe te laat om aktief te kies of hul interaksies bydra tot Claude se leerproses, beoog Anthropic om 'n samewerkende omgewing te bevorder wat beide individuele gebruikers en die breër KI-ekosisteem bevoordeel. Hierdie strategiese evolusie van verbruiker-gefokusde beleide onderstreep die maatskappy se verbintenis tot verantwoordelike KI-ontwikkeling en gebruikervertroue.
Verbetering van Claude met Gebruiker-gedrewe Insigte en Beveiligings
Die primêre verandering in Anthropic se opgedateerde beleid is die instelling van 'n gebruikerskeuse rakende datagebruik vir modelverbetering. Gebruikers op Claude se Gratis, Pro en Max-planne, insluitend diegene wat Claude Code van geassosieerde rekeninge benut, sal nou die opsie hê om hul data te laat bydra tot die opleiding van toekomstige Claude-modelle. Hierdie deelname word as 'n deurslaggewende stap beskou om meer robuuste en intelligente KI te bou.
Die keuse om in te teken vir hierdie datagebruik bied verskeie direkte voordele. Volgens Anthropic bied gebruikersinteraksies waardevolle werklike insigte wat help om modelveiligheidsprotokolle te verfyn, wat die stelsels vir die opsporing van skadelike inhoud meer akkuraat maak en minder geneig is om onskuldige gesprekke te vlag. Behalwe veiligheid, word verwag dat gebruikerdata Claude se kernvermoëns aansienlik sal verbeter, soos koderingsvaardigheid, analitiese redenasie en komplekse probleemoplossingsvaardighede. Hierdie terugvoerlus is noodsaaklik vir die deurlopende evolusie van groot taalmodelle, wat lei tot meer verfynde en nuttige KI-gereedskap vir almal.
Dit is belangrik om die spesifieke omvang van hierdie opdaterings in ag te neem. Alhoewel dit van toepassing is op verbruikersvlakrekeninge, strek hierdie beleidsveranderinge uitdruklik nie tot dienste wat deur Anthropic se Kommersiële Bepalings beheer word nie. Dit sluit in Claude for Work, Claude for Government, Claude for Education, en alle API-gebruik, hetsy direk of deur derdeparty-platforms soos Amazon Bedrock of Google Cloud se Vertex AI. Hierdie onderskeid verseker dat kommersiële kliënte en ondernemingsvlakvennote hul bestaande, dikwels pasgemaakte, data-ooreenkomste en privaatheidsraamwerke behou. Vir gebruikers wat dienste soos Amazon Bedrock AgentCore gebruik, bly afsonderlike ooreenkomste van krag.
Navigeer Jou Keuses: Intekening en Sperdatums
Anthropic is daartoe verbind om gebruikers duidelike beheer oor hul data te bied. Beide nuwe en bestaande Claude-gebruikers sal verskillende prosesse teëkom vir die maak van hul datadelingskeuses. Nuwe gebruikers wat vir Claude aanmeld, sal die opsie vind om hul voorkeur vir modelopleiding as 'n integrale deel van die aanmeldproses te kies, sodat hulle hul privaatheidsinstellings van die begin af kan definieer.
Vir bestaande gebruikers het Anthropic 'n gefaseerde uitrol van in-program kennisgewings begin. Hierdie opspringvensters sal gebruikers aanspoor om die opgedateerde Verbruikersbepalings en Privaatheidsbeleid te hersien en te besluit of hulle hul data vir modelverbetering wil laat gebruik. Gebruikers het 'n grasietydperk tot 8 Oktober 2025 om hul keuse te maak. As 'n bestaande gebruiker kies om die nuwe beleide te aanvaar en in te teken voor hierdie sperdatum, sal hierdie veranderinge onmiddellik in werking tree vir alle nuwe of hervatte gesprekke en koderingsessies. Dit is deurslaggewend vir gebruikers om 'n keuse teen die gespesifiseerde datum te maak, aangesien voortgesette gebruik van Claude na 8 Oktober 2025 'n keuse oor die modelopleiding-instelling sal vereis. Dit verseker dat gebruikers aktief betrokke is by die vorming van hul privaatheidslandskap.
Deurslaggewend is dat gebruikersbeheer nie 'n eenmalige besluit is nie. Anthropic beklemtoon dat voorkeure enige tyd via die toegewyde Privaatheidsinstellings-afdeling binne die Claude-koppelvlak aangepas kan word. Hierdie buigsaamheid onderstreep die maatskappy se verbintenis tot deurlopende gebruikersoutonomie rakende hul persoonlike data.
Beleidsvergelyking: Datagebruik en Behoud
Om die impak van hierdie opdaterings te verduidelik, som die volgende tabel die sleutelverskille op tussen die intekening en uittekening vir datagebruik vir modelopleiding onder die nuwe Verbruikersbepalings:
| Kenmerk | Inteken vir Modelopleiding (Nuwe Beleid) | Uitteken (Bestaande/Verstek Beleid) |
|---|---|---|
| Datagebruik | Nuwe/hervatte gesprekke & koderingsessies gebruik vir modelverbetering & veiligheid. | Nuwe/hervatte gesprekke & koderingsessies nie gebruik vir modelopleiding nie. |
| Databehoudtydperk | 5 jaar vir ingeteken data. | 30 dae vir alle data. |
| Van toepassing op | Claude Gratis, Pro, Max rekeninge & Claude Code sessies. | Claude Gratis, Pro, Max rekeninge & Claude Code sessies. |
| Uitsluitings | Kommersiële Bepalings, API, Amazon Bedrock, Google Vertex KI dienste. | Dieselfde uitsluitings. |
Strategiese Databehoud vir Langtermyn KI-Ontwikkeling
Saam met die intekening vir modelopleiding, stel Anthropic ook 'n verlengde databehoudtydperk bekend vir gebruikers wat kies om deel te neem. As 'n gebruiker kies om hul data vir modelverbetering toe te laat, sal die behoudtydperk vir nuwe of hervatte gesprekke en koderingsessies tot vyf jaar verleng word. Vir gebruikers wat nie inteken nie, sal die bestaande 30-dae databehoudtydperk steeds van toepassing wees. Hierdie verlengde behoud dek ook terugvoer wat ingedien is oor Claude se antwoorde op aansporings.
Die rasionaal agter die vyf-jaar behoudtydperk is diep gewortel in die realiteite van gevorderde KI-ontwikkeling. Groot taalmodelle ondergaan ontwikkelingsiklusse wat dikwels 18 tot 24 maande voor vrystelling strek. Die handhawing van datakonsistensie oor langer tydperke is noodsaaklik vir die skep van meer stabiele en voorspelbare modelle. Konsistente data stel modelle in staat om op soortgelyke maniere opgelei en verfyn te word, wat lei tot gladder oorgange en opgraderings vir gebruikers.
Verder help die verlengde behoud aansienlik met die verbetering van Anthropic se interne klassifiseerders—die gesofistikeerde stelsels wat gebruik word om misbruik, mishandeling, strooipos en ander skadelike patrone te identifiseer en teen te werk. Hierdie veiligheidsmeganismes word meer effektief deur te leer uit data wat oor verlengde tydperke versamel is, wat Claude se vermoë verbeter om 'n veilige en voordelige hulpmiddel vir almal te bly. Anthropic is ook verbind tot breër KI-veiligheidsbesprekings, soos uitgelig deur inisiatiewe soos Die Anthropic Instituut.
Om gebruikerprivaatheid te beskerm, gebruik Anthropic 'n kombinasie van gevorderde gereedskap en outomatiese prosesse om sensitiewe data te filter of te versluier voordat dit vir enige modelopleiding of analise gebruik word. Die maatskappy verklaar nadruklik dat dit nie gebruikerdata aan derde partye verkoop nie, wat sy verbintenis tot privaatheid versterk, selfs met die verlengde behoud vir ingeteken data. Gebruikers behou beheer oor hul data selfs nadat hulle ingeteken het; die verwydering van 'n spesifieke gesprek verseker dat dit nie vir toekomstige modelopleiding gebruik sal word nie. Hierdie omvattende benadering onderstreep Anthropic se toewyding aan verantwoordelike KI-praktyke.
Gebruikerbemagtiging en Databestuur
Anthropic se opgedateerde Verbruikersbepalings en Privaatheidsbeleid onderstreep 'n gebruiker-sentriese benadering tot KI-ontwikkeling. Deur die keuse om by te dra tot modelverbetering direk in die hande van die gebruiker te plaas, beoog die maatskappy om 'n meer deursigtige en samewerkende verhouding te bevorder. Die vermoë om hierdie voorkeure enige tyd te wysig, verseker dat gebruikers deurlopende beheer oor hul data se reis behou.
Indien 'n gebruiker aanvanklik inteken vir modelopleiding, maar later besluit om van plan te verander en uit te teken, het Anthropic 'n duidelike beleid. Alhoewel data wat gebruik is in voorheen voltooide modelopleidingslopies en reeds vrygestelde modelle steeds binne daardie weergawes mag bestaan, sal enige nuwe gesprekke en koderingsessies na die uittekenbesluit nie vir toekomstige opleiding gebruik word nie. Die maatskappy verbind hom daartoe om die gebruik van voorheen gestoorde gesprekke en koderingsessies in enige toekomstige modelopleidingsiterasies te staak sodra die voorkeur opgedateer is. Dit bied 'n robuuste meganisme vir gebruikers om hul privaatheidsinstellings dinamies te bestuur.
Hierdie opdaterings verteenwoordig 'n berekende stap na die balansering van die geweldige potensiaal van data-gedrewe KI-innovasie met die uiterste belangrikheid van gebruikerprivaatheid en deursigtigheid. Soos KI-modelle toenemend in die daaglikse lewe geïntegreer word, is beleide soos hierdie deurslaggewend vir die bou van vertroue en die verseker van etiese ontwikkeling.
Oorspronklike bron
https://www.anthropic.com/news/updates-to-our-consumer-termsGereelde Vrae
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Bly op hoogte
Kry die nuutste KI-nuus in jou inkassie.
