Code Velocity
Gervigreindarlíkön

Anthropic Claude: Uppfærslur á neytendaskilmálum og persónuverndarstefnu

·5 mín lestur·Anthropic·Upprunaleg heimild
Deila
Tilkynningarskjár um uppfærslu á neytendaskilmálum og persónuverndarstefnu Anthropic Claude

Anthropic kynnir mikilvægar uppfærslur á neytendaskilmálum og persónuverndarstefnu Claude

Anthropic, leiðandi rannsóknarfyrirtæki í gervigreind, hefur tilkynnt um umtalsverðar uppfærslur á neytendaskilmálum og persónuverndarstefnu sinni fyrir notendur Claude gervigreindarlíkana sinna. Þessar breytingar, sem taka gildi 28. ágúst 2025, eru hannaðar til að veita notendum meiri stjórn á gögnum sínum, um leið og þær gera Anthropic kleift að þróa færari og öruggari gervigreindarkerfi. Kjarni þessara uppfærslna snýst um valkost um að taka þátt í gagnanotkun fyrir líkanþjálfun og lengri varðveislutíma gagna fyrir þá sem taka þátt.

Þessi ráðstöfun endurspeglar vaxandi stefnu í iðnaði í átt að meira gagnsæi og aukinni stjórn notenda í þróun gervigreindar. Með því að leyfa notendum að velja virkan hvort samskipti þeirra stuðli að námi Claude, stefnir Anthropic að því að skapa samstarfsumhverfi sem gagnast bæði einstökum notendum og víðara gervigreindarvistkerfi. Þessi stefnumótandi þróun neytendamiðaðra stefna undirstrikar skuldbindingu fyrirtækisins við ábyrga gervigreindarþróun og traust notenda.

Að bæta Claude með notendadrifinni innsýn og verndarráðstöfunum

Aðalbreytingin í uppfærðri stefnu Anthropic er innleiðing á vali notenda varðandi gagnanotkun til líkanbætingar. Notendur á Claude's Free, Pro og Max áætlunum, þar á meðal þeir sem nýta sér Claude Code frá tengdum reikningum, munu nú hafa möguleika á að leyfa að gögn þeirra stuðli að þjálfun framtíðar Claude líkana. Þessi þátttaka er sett fram sem mikilvægt skref í átt að því að byggja upp sterkari og gáfaðri gervigreind.

Að velja að taka þátt í þessari gagnanotkun býður upp á nokkra beina kosti. Samkvæmt Anthropic veita samskipti notenda dýrmæta raunverulega innsýn sem hjálpar til við að betrumbæta öryggisreglur líkana, sem gerir kerfi til að greina skaðlegt efni nákvæmari og minna líkleg til að merkja saklaus samtöl. Fyrir utan öryggi er búist við að notendagögn bæti verulega kjarnagetu Claude, svo sem kóðunarhæfni, greiningarhæfni og flókna vandamálalausnarhæfileika. Þessi endurgjöfarlota er nauðsynleg fyrir stöðuga þróun stórra málíkana, sem leiðir til betrumbættra og gagnlegra gervigreindartækja fyrir alla.

Mikilvægt er að taka fram sértæka umfang þessara uppfærslna. Þótt þær eigi við um neytenda-reikninga, ná þessar stefnubreytingar ekki beinlínis til þjónustu sem lýtur viðskiptaskilmálum Anthropic. Þetta felur í sér Claude for Work, Claude for Government, Claude for Education, og alla API notkun, hvort sem er beint eða í gegnum þriðja aðila kerfi eins og Amazon Bedrock eða Google Cloud’s Vertex AI. Þessi aðgreining tryggir að viðskiptavinir og samstarfsaðilar á fyrirtækjastigi haldi sínum núverandi, oft sérsniðnu, gagna- og persónuverndarsamningum. Fyrir notendur sem nýta þjónustu eins og Amazon Bedrock AgentCore, eru sérstakir samningar enn í gildi.

Að velja: Þátttaka og frestir

Anthropic skuldbindur sig til að veita notendum skýra stjórn á gögnum sínum. Bæði nýir og núverandi Claude notendur munu fá aðferðir til að velja hvernig gögnum þeirra er deilt. Nýir notendur sem skrá sig fyrir Claude munu finna valkostinn til að velja óskir sínar um líkanþjálfun sem óaðskiljanlegan hluta af inngangsferlinu, sem gerir þeim kleift að skilgreina persónuverndarstillingar sínar frá upphafi.

Fyrir núverandi notendur hefur Anthropic hafið áfangaskipta innleiðingu á tilkynningum innan forritsins. Þessir sprettigluggar munu hvetja notendur til að fara yfir uppfærðu neytendaskilmálana og persónuverndarstefnuna og ákveða hvort þeir leyfa að gögn þeirra séu notuð til að bæta líkanið. Notendur hafa frest til 8. október 2025 til að velja. Ef núverandi notandi velur að samþykkja nýju stefnurnar og taka þátt fyrir þennan frest, munu þessar breytingar taka gildi strax fyrir öll ný eða endurtekin spjöll og kóðunarlotur. Það er mikilvægt fyrir notendur að velja fyrir tiltekinn dagsetningu, þar sem áframhaldandi notkun Claude eftir 8. október 2025 mun krefjast vals á líkanþjálfunarstillingu. Þetta tryggir að notendur séu virkir þátttakendur í að móta persónuverndarumhverfi sitt.

Mikilvægt er að stjórn notenda er ekki einu sinni ákvörðun. Anthropic leggur áherslu á að hægt sé að breyta óskum hvenær sem er í gegnum sérstaka Persónuverndarstillingar hluta innan Claude viðmótsins. Þessi sveigjanleiki undirstrikar skuldbindingu fyrirtækisins við áframhaldandi sjálfræði notenda varðandi persónuleg gögn þeirra.

Stefnu samanburður: Gagnanotkun og varðveisla

Til að skýra áhrif þessara uppfærslna, dregur eftirfarandi tafla saman helstu muninn á því að taka þátt og afþakka gagnanotkun fyrir líkanþjálfun samkvæmt nýjum neytendaskilmálum:

EiginleikiVelja þátttöku í líkanþjálfun (Ný stefna)Afþakka (Núverandi/sjálfgefin stefna)
GagnanotkunNý/endurtekin spjöll og kóðunarlotur notaðar til líkanbætingar og öryggis.Ný/endurtekin spjöll og kóðunarlotur ekki notuð til líkanþjálfunar.
Geymslutími gagna5 ár fyrir gögn sem valið hefur verið að taka þátt í.30 dagar fyrir öll gögn.
Gildir umClaude Free, Pro, Max reikninga & Claude Code lotur.Claude Free, Pro, Max reikninga & Claude Code lotur.
UndanskildirViðskiptaskilmálar, API, Amazon Bedrock, Google Vertex AI þjónustur.Sömu undantekningar.

Stefnumótandi varðveisla gagna fyrir langtíma þróun gervigreindar

Samhliða vali um þátttöku í líkanþjálfun er Anthropic einnig að innleiða lengri geymslutíma gagna fyrir notendur sem velja að taka þátt. Ef notandi velur að leyfa gögn sín til líkanbætingar, verður geymslutími fyrir ný eða endurtekin spjöll og kóðunarlotur framlengdur í fimm ár. Fyrir notendur sem ekki velja að taka þátt, mun núverandi 30 daga geymslutími gagna halda áfram að gilda. Þessi framlengda varðveisla nær einnig til endurgjöfar sem lögð er fram varðandi svör Claude við skipunum.

Rökstuðningurinn fyrir fimm ára geymslutíma er djúpt rótgróinn í raunveruleika háþróaðrar þróunar gervigreindar. Stór málíkön gangast undir þróunarferla sem oft spanna 18 til 24 mánuði áður en þau eru gefin út. Að viðhalda samræmi gagna yfir lengri tíma er mikilvægt til að skapa stöðugri og fyrirsjáanlegri líkön. Samræmd gögn gera líkönum kleift að vera þjálfuð og betrumbætt á svipaðan hátt, sem leiðir til hnökralausari umskipta og uppfærslna fyrir notendur.

Enn fremur, þá styður framlengd varðveisla verulega við að bæta innri flokkara Anthropic – þau háþróuðu kerfi sem notuð eru til að bera kennsl á og sporna við misnotkun, ofbeldi, ruslpósti og öðrum skaðlegum mynstrum. Þessi öryggiskerfi verða árangursríkari með því að læra af gögnum sem safnað er yfir lengri tíma, sem eykur getu Claude til að vera öruggt og gagnlegt tæki fyrir alla. Anthropic er einnig skuldbundið til víðtækari umræðu um öryggi gervigreindar, eins og undirstrikað er af framtökum eins og Anthropic Institute.

Til að vernda friðhelgi einkalífs notenda notar Anthropic samsetningu háþróaðra tækja og sjálfvirkra ferla til að sía eða hylja viðkvæm gögn áður en þau eru notuð til líkanþjálfunar eða greiningar. Fyrirtækið tekur skýrt fram að það selur ekki notendagögn til þriðja aðila, og styrkir þannig skuldbindingu sína um persónuvernd jafnvel með framlengdri varðveislu fyrir gögn sem valin hefur verið að taka þátt í. Notendur halda stjórn á gögnum sínum jafnvel eftir að hafa valið að taka þátt; að eyða tilteknu samtali tryggir að það verði ekki notað í framtíðar líkanþjálfun. Þessi yfirgripsmikla nálgun undirstrikar hollustu Anthropic við ábyrgar gervigreindarhættir.

Efling notenda og gagnaumsjón

Uppfærðu neytendaskilmálar og persónuverndarstefna Anthropic undirstrika notendasentrerða nálgun við þróun gervigreindar. Með því að leggja valið um að stuðla að líkanbætingu beint í hendur notandans, stefnir fyrirtækið að því að efla gagnsærra og samstarfshæfara samband. Möguleikinn á að breyta þessum óskum hvenær sem er tryggir að notendur haldi stöðugri stjórn á ferðalagi gagna sinna.

Ef notandi velur upphaflega að taka þátt í líkanþjálfun en ákveður síðar að skipta um skoðun og afþakka, hefur Anthropic skýra stefnu. Þó að gögn sem notuð voru í fyrri líkanþjálfunum sem hafa verið lokið og líkön sem þegar hafa verið gefin út geta enn verið til staðar í þeim útgáfum, munu spjöll og kóðunarlotur eftir afþökkunarákvörðunina ekki verða notuð í framtíðarþjálfun. Fyrirtækið skuldbindur sig til að hætta notkun þeirra spjalla og kóðunarlota sem áður voru geymd í framtíðar líkanþjálfunum þegar óskin hefur verið uppfærð. Þetta býður upp á öflugt kerfi fyrir notendur til að stjórna persónuverndarstillingum sínum á virkan hátt.

Þessar uppfærslur tákna ígrundað skref í átt að því að jafnvægi sé á milli gríðarlegs möguleika gagndrifinnar gervigreindarnýsköpunar og yfirgnæfandi mikilvægis friðhelgi einkalífs notenda og gagnsæis. Þar sem gervigreindarlíkön verða í auknum mæli samþætt í daglegt líf eru stefnur eins og þessar mikilvægar til að byggja upp traust og tryggja siðferðilega þróun.

Algengar spurningar

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Fylgstu með

Fáðu nýjustu gervigreindarfréttirnar í pósthólfið.

Deila