Anthropic kynnir mikilvægar uppfærslur á neytendaskilmálum og persónuverndarstefnu Claude
Anthropic, leiðandi rannsóknarfyrirtæki í gervigreind, hefur tilkynnt um umtalsverðar uppfærslur á neytendaskilmálum og persónuverndarstefnu sinni fyrir notendur Claude gervigreindarlíkana sinna. Þessar breytingar, sem taka gildi 28. ágúst 2025, eru hannaðar til að veita notendum meiri stjórn á gögnum sínum, um leið og þær gera Anthropic kleift að þróa færari og öruggari gervigreindarkerfi. Kjarni þessara uppfærslna snýst um valkost um að taka þátt í gagnanotkun fyrir líkanþjálfun og lengri varðveislutíma gagna fyrir þá sem taka þátt.
Þessi ráðstöfun endurspeglar vaxandi stefnu í iðnaði í átt að meira gagnsæi og aukinni stjórn notenda í þróun gervigreindar. Með því að leyfa notendum að velja virkan hvort samskipti þeirra stuðli að námi Claude, stefnir Anthropic að því að skapa samstarfsumhverfi sem gagnast bæði einstökum notendum og víðara gervigreindarvistkerfi. Þessi stefnumótandi þróun neytendamiðaðra stefna undirstrikar skuldbindingu fyrirtækisins við ábyrga gervigreindarþróun og traust notenda.
Að bæta Claude með notendadrifinni innsýn og verndarráðstöfunum
Aðalbreytingin í uppfærðri stefnu Anthropic er innleiðing á vali notenda varðandi gagnanotkun til líkanbætingar. Notendur á Claude's Free, Pro og Max áætlunum, þar á meðal þeir sem nýta sér Claude Code frá tengdum reikningum, munu nú hafa möguleika á að leyfa að gögn þeirra stuðli að þjálfun framtíðar Claude líkana. Þessi þátttaka er sett fram sem mikilvægt skref í átt að því að byggja upp sterkari og gáfaðri gervigreind.
Að velja að taka þátt í þessari gagnanotkun býður upp á nokkra beina kosti. Samkvæmt Anthropic veita samskipti notenda dýrmæta raunverulega innsýn sem hjálpar til við að betrumbæta öryggisreglur líkana, sem gerir kerfi til að greina skaðlegt efni nákvæmari og minna líkleg til að merkja saklaus samtöl. Fyrir utan öryggi er búist við að notendagögn bæti verulega kjarnagetu Claude, svo sem kóðunarhæfni, greiningarhæfni og flókna vandamálalausnarhæfileika. Þessi endurgjöfarlota er nauðsynleg fyrir stöðuga þróun stórra málíkana, sem leiðir til betrumbættra og gagnlegra gervigreindartækja fyrir alla.
Mikilvægt er að taka fram sértæka umfang þessara uppfærslna. Þótt þær eigi við um neytenda-reikninga, ná þessar stefnubreytingar ekki beinlínis til þjónustu sem lýtur viðskiptaskilmálum Anthropic. Þetta felur í sér Claude for Work, Claude for Government, Claude for Education, og alla API notkun, hvort sem er beint eða í gegnum þriðja aðila kerfi eins og Amazon Bedrock eða Google Cloud’s Vertex AI. Þessi aðgreining tryggir að viðskiptavinir og samstarfsaðilar á fyrirtækjastigi haldi sínum núverandi, oft sérsniðnu, gagna- og persónuverndarsamningum. Fyrir notendur sem nýta þjónustu eins og Amazon Bedrock AgentCore, eru sérstakir samningar enn í gildi.
Að velja: Þátttaka og frestir
Anthropic skuldbindur sig til að veita notendum skýra stjórn á gögnum sínum. Bæði nýir og núverandi Claude notendur munu fá aðferðir til að velja hvernig gögnum þeirra er deilt. Nýir notendur sem skrá sig fyrir Claude munu finna valkostinn til að velja óskir sínar um líkanþjálfun sem óaðskiljanlegan hluta af inngangsferlinu, sem gerir þeim kleift að skilgreina persónuverndarstillingar sínar frá upphafi.
Fyrir núverandi notendur hefur Anthropic hafið áfangaskipta innleiðingu á tilkynningum innan forritsins. Þessir sprettigluggar munu hvetja notendur til að fara yfir uppfærðu neytendaskilmálana og persónuverndarstefnuna og ákveða hvort þeir leyfa að gögn þeirra séu notuð til að bæta líkanið. Notendur hafa frest til 8. október 2025 til að velja. Ef núverandi notandi velur að samþykkja nýju stefnurnar og taka þátt fyrir þennan frest, munu þessar breytingar taka gildi strax fyrir öll ný eða endurtekin spjöll og kóðunarlotur. Það er mikilvægt fyrir notendur að velja fyrir tiltekinn dagsetningu, þar sem áframhaldandi notkun Claude eftir 8. október 2025 mun krefjast vals á líkanþjálfunarstillingu. Þetta tryggir að notendur séu virkir þátttakendur í að móta persónuverndarumhverfi sitt.
Mikilvægt er að stjórn notenda er ekki einu sinni ákvörðun. Anthropic leggur áherslu á að hægt sé að breyta óskum hvenær sem er í gegnum sérstaka Persónuverndarstillingar hluta innan Claude viðmótsins. Þessi sveigjanleiki undirstrikar skuldbindingu fyrirtækisins við áframhaldandi sjálfræði notenda varðandi persónuleg gögn þeirra.
Stefnu samanburður: Gagnanotkun og varðveisla
Til að skýra áhrif þessara uppfærslna, dregur eftirfarandi tafla saman helstu muninn á því að taka þátt og afþakka gagnanotkun fyrir líkanþjálfun samkvæmt nýjum neytendaskilmálum:
| Eiginleiki | Velja þátttöku í líkanþjálfun (Ný stefna) | Afþakka (Núverandi/sjálfgefin stefna) |
|---|---|---|
| Gagnanotkun | Ný/endurtekin spjöll og kóðunarlotur notaðar til líkanbætingar og öryggis. | Ný/endurtekin spjöll og kóðunarlotur ekki notuð til líkanþjálfunar. |
| Geymslutími gagna | 5 ár fyrir gögn sem valið hefur verið að taka þátt í. | 30 dagar fyrir öll gögn. |
| Gildir um | Claude Free, Pro, Max reikninga & Claude Code lotur. | Claude Free, Pro, Max reikninga & Claude Code lotur. |
| Undanskildir | Viðskiptaskilmálar, API, Amazon Bedrock, Google Vertex AI þjónustur. | Sömu undantekningar. |
Stefnumótandi varðveisla gagna fyrir langtíma þróun gervigreindar
Samhliða vali um þátttöku í líkanþjálfun er Anthropic einnig að innleiða lengri geymslutíma gagna fyrir notendur sem velja að taka þátt. Ef notandi velur að leyfa gögn sín til líkanbætingar, verður geymslutími fyrir ný eða endurtekin spjöll og kóðunarlotur framlengdur í fimm ár. Fyrir notendur sem ekki velja að taka þátt, mun núverandi 30 daga geymslutími gagna halda áfram að gilda. Þessi framlengda varðveisla nær einnig til endurgjöfar sem lögð er fram varðandi svör Claude við skipunum.
Rökstuðningurinn fyrir fimm ára geymslutíma er djúpt rótgróinn í raunveruleika háþróaðrar þróunar gervigreindar. Stór málíkön gangast undir þróunarferla sem oft spanna 18 til 24 mánuði áður en þau eru gefin út. Að viðhalda samræmi gagna yfir lengri tíma er mikilvægt til að skapa stöðugri og fyrirsjáanlegri líkön. Samræmd gögn gera líkönum kleift að vera þjálfuð og betrumbætt á svipaðan hátt, sem leiðir til hnökralausari umskipta og uppfærslna fyrir notendur.
Enn fremur, þá styður framlengd varðveisla verulega við að bæta innri flokkara Anthropic – þau háþróuðu kerfi sem notuð eru til að bera kennsl á og sporna við misnotkun, ofbeldi, ruslpósti og öðrum skaðlegum mynstrum. Þessi öryggiskerfi verða árangursríkari með því að læra af gögnum sem safnað er yfir lengri tíma, sem eykur getu Claude til að vera öruggt og gagnlegt tæki fyrir alla. Anthropic er einnig skuldbundið til víðtækari umræðu um öryggi gervigreindar, eins og undirstrikað er af framtökum eins og Anthropic Institute.
Til að vernda friðhelgi einkalífs notenda notar Anthropic samsetningu háþróaðra tækja og sjálfvirkra ferla til að sía eða hylja viðkvæm gögn áður en þau eru notuð til líkanþjálfunar eða greiningar. Fyrirtækið tekur skýrt fram að það selur ekki notendagögn til þriðja aðila, og styrkir þannig skuldbindingu sína um persónuvernd jafnvel með framlengdri varðveislu fyrir gögn sem valin hefur verið að taka þátt í. Notendur halda stjórn á gögnum sínum jafnvel eftir að hafa valið að taka þátt; að eyða tilteknu samtali tryggir að það verði ekki notað í framtíðar líkanþjálfun. Þessi yfirgripsmikla nálgun undirstrikar hollustu Anthropic við ábyrgar gervigreindarhættir.
Efling notenda og gagnaumsjón
Uppfærðu neytendaskilmálar og persónuverndarstefna Anthropic undirstrika notendasentrerða nálgun við þróun gervigreindar. Með því að leggja valið um að stuðla að líkanbætingu beint í hendur notandans, stefnir fyrirtækið að því að efla gagnsærra og samstarfshæfara samband. Möguleikinn á að breyta þessum óskum hvenær sem er tryggir að notendur haldi stöðugri stjórn á ferðalagi gagna sinna.
Ef notandi velur upphaflega að taka þátt í líkanþjálfun en ákveður síðar að skipta um skoðun og afþakka, hefur Anthropic skýra stefnu. Þó að gögn sem notuð voru í fyrri líkanþjálfunum sem hafa verið lokið og líkön sem þegar hafa verið gefin út geta enn verið til staðar í þeim útgáfum, munu ný spjöll og kóðunarlotur eftir afþökkunarákvörðunina ekki verða notuð í framtíðarþjálfun. Fyrirtækið skuldbindur sig til að hætta notkun þeirra spjalla og kóðunarlota sem áður voru geymd í framtíðar líkanþjálfunum þegar óskin hefur verið uppfærð. Þetta býður upp á öflugt kerfi fyrir notendur til að stjórna persónuverndarstillingum sínum á virkan hátt.
Þessar uppfærslur tákna ígrundað skref í átt að því að jafnvægi sé á milli gríðarlegs möguleika gagndrifinnar gervigreindarnýsköpunar og yfirgnæfandi mikilvægis friðhelgi einkalífs notenda og gagnsæis. Þar sem gervigreindarlíkön verða í auknum mæli samþætt í daglegt líf eru stefnur eins og þessar mikilvægar til að byggja upp traust og tryggja siðferðilega þróun.
Upprunaleg heimild
https://www.anthropic.com/news/updates-to-our-consumer-termsAlgengar spurningar
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Fylgstu með
Fáðu nýjustu gervigreindarfréttirnar í pósthólfið.
