Anthropic uvaja ključne posodobitve pogojev za uporabnike in pravilnika o zasebnosti za Claudea
Anthropic, vodilno podjetje za raziskave umetne inteligence, je napovedalo pomembne posodobitve svojih pogojev za uporabnike in pravilnika o zasebnosti za uporabnike svojih modelov umetne inteligence Claude. Te spremembe, ki začnejo veljati 28. avgusta 2025, so zasnovane tako, da uporabnikom omogočijo večji nadzor nad njihovimi podatki, hkrati pa Anthropicu omogočijo razvoj zmogljivejših in varnejših sistemov umetne inteligence. Jedro teh posodobitev se osredotoča na mehanizem privolitve za uporabo podatkov pri usposabljanju modelov in podaljšano obdobje hrambe podatkov za tiste, ki sodelujejo.
Ta poteza odraža naraščajoč trend v industriji k večji preglednosti in avtonomiji uporabnikov pri razvoju umetne inteligence. Z omogočanjem uporabnikom, da aktivno izberejo, ali njihove interakcije prispevajo k učenju Claudea, si Anthropic prizadeva ustvariti sodelovalno okolje, ki koristi tako posameznim uporabnikom kot širšemu ekosistemu umetne inteligence. Ta strateška evolucija potrošniških politik poudarja zavezanost podjetja k odgovornemu razvoju umetne inteligence in zaupanju uporabnikov.
Izboljšanje Claudea z uporabniško usmerjenimi vpogledi in zaščitnimi ukrepi
Primarna sprememba v posodobljenem pravilniku Anthropic je uvedba izbire uporabnika glede uporabe podatkov za izboljšanje modela. Uporabniki na načrtih Claude Free, Pro in Max, vključno s tistimi, ki uporabljajo Claude Code iz povezanih računov, bodo imeli zdaj možnost, da dovolijo, da njihovi podatki prispevajo k usposabljanju prihodnjih modelov Claude. To sodelovanje je postavljeno kot ključni korak k izgradnji robustnejše in inteligentnejše umetne inteligence.
Privolitev v to uporabo podatkov prinaša več neposrednih koristi. Po navedbah Anthropic interakcije uporabnikov zagotavljajo dragocene vpoglede iz resničnega sveta, ki pomagajo izboljšati varnostne protokole modela, zaradi česar so sistemi za odkrivanje škodljive vsebine natančnejši in manj nagnjeni k napačni označitvi neškodljivih pogovorov. Poleg varnosti se pričakuje, da bodo uporabniški podatki pomembno izboljšali osnovne zmogljivosti Claudea, kot so veščine kodiranja, analitično sklepanje in sposobnosti reševanja kompleksnih problemov. Ta povratna zanka je bistvena za nenehen razvoj velikih jezikovnih modelov, kar vodi do bolj izpopolnjenih in uporabnih orodij umetne inteligence za vse.
Pomembno je opozoriti na specifičen obseg teh posodobitev. Čeprav veljajo za potrošniške račune, se te spremembe pravilnika izrecno ne razširjajo na storitve, ki jih urejajo komercialni pogoji Anthropic. To vključuje Claude za delo, Claude za vlado, Claude za izobraževanje in vso uporabo API-jev, bodisi neposredno ali prek platform tretjih oseb, kot sta Amazon Bedrock ali Google Cloud's Vertex AI. Ta razlika zagotavlja, da komercialne stranke in partnerji na ravni podjetij ohranijo svoje obstoječe, pogosto prilagojene, podatkovne sporazume in okvire zasebnosti. Za uporabnike, ki uporabljajo storitve, kot je Amazon Bedrock AgentCore, ostanejo v veljavi ločeni sporazumi.
Navigacija po vaših izbirah: privolitev in roki
Anthropic je zavezan zagotavljanju jasnega nadzora uporabnikom nad njihovimi podatki. Novi in obstoječi uporabniki Claudea se bodo srečali z različnimi postopki za sprejemanje odločitev o skupni rabi podatkov. Novi uporabniki, ki se prijavijo za Claude, bodo našli možnost izbire svojih preferenc za usposabljanje modela kot sestavni del postopka prijave, kar jim omogoča, da določijo svoje nastavitve zasebnosti že na začetku.
Za obstoječe uporabnike je Anthropic začel postopno uvajanje obvestil v aplikaciji. Ta pojavna okna bodo uporabnike pozvala k pregledu posodobljenih pogojev za uporabnike in pravilnika o zasebnosti ter k odločitvi, ali bodo dovolili uporabo svojih podatkov za izboljšanje modela. Uporabniki imajo prehodno obdobje do 8. oktobra 2025, da se odločijo. Če se obstoječi uporabnik odloči sprejeti nove pravilnike in se vključi pred tem rokom, bodo te spremembe takoj začele veljati za vse nove ali nadaljevane klepete in kodirne seje. Ključno je, da uporabniki izberejo do določenega datuma, saj bo nadaljnja uporaba Claudea po 8. oktobru 2025 zahtevala izbiro nastavitve za usposabljanje modela. To zagotavlja, da so uporabniki aktivno vključeni v oblikovanje svoje zasebnosti.
Nadzor uporabnika ni enkratna odločitev. Anthropic poudarja, da je mogoče preference kadar koli prilagoditi prek namenskega razdelka z nastavitvami zasebnosti v vmesniku Claude. Ta prilagodljivost poudarja zavezanost podjetja k nenehni avtonomiji uporabnika glede osebnih podatkov.
Primerjava pravilnikov: uporaba in hramba podatkov
Za pojasnitev vpliva teh posodobitev, naslednja tabela povzema ključne razlike med privolitvijo in zavrnitvijo uporabe podatkov za usposabljanje modelov v skladu z novimi pogoji za uporabnike:
| Funkcija | Privolitev za usposabljanje modela (nov pravilnik) | Zavrnitev (obstoječi/privzeti pravilnik) |
|---|---|---|
| Uporaba podatkov | Novi/nadaljevani klepeti in kodirne seje se uporabljajo za izboljšanje modela in varnost. | Novi/nadaljevani klepeti in kodirne seje se ne uporabljajo za usposabljanje modela. |
| Obdobje hrambe podatkov | 5 let za podatke, za katere je bila podana privolitev. | 30 dni za vse podatke. |
| Velja za | Claude Free, Pro, Max račune in seje Claude Code. | Claude Free, Pro, Max račune in seje Claude Code. |
| Izključitve | Komercialni pogoji, API, Amazon Bedrock, Google Vertex AI storitve. | Enake izključitve. |
Strateška hramba podatkov za dolgoročni razvoj umetne inteligence
Poleg privolitve za usposabljanje modelov Anthropic uvaja tudi podaljšano obdobje hrambe podatkov za uporabnike, ki se odločijo za sodelovanje. Če se uporabnik odloči, da dovoli svoje podatke za izboljšanje modela, bo obdobje hrambe za nove ali nadaljevane klepete in kodirne seje podaljšano na pet let. Za uporabnike, ki se ne odločijo za privolitev, bo še naprej veljalo obstoječe 30-dnevno obdobje hrambe podatkov. To podaljšano hramba zajema tudi povratne informacije, posredovane o odzivih Claudea na pozive.
Utemeljitev petletnega obdobja hrambe je globoko zakoreninjena v realnosti naprednega razvoja umetne inteligence. Veliki jezikovni modeli gredo skozi razvojne cikle, ki pogosto trajajo od 18 do 24 mesecev pred izdajo. Ohranjanje doslednosti podatkov v daljših obdobjih je ključnega pomena za ustvarjanje stabilnejših in predvidljivejših modelov. Dosledni podatki omogočajo usposabljanje in izpopolnjevanje modelov na podobne načine, kar vodi do bolj gladkih prehodov in nadgradenj za uporabnike.
Poleg tega podaljšana hramba znatno pomaga pri izboljšanju notranjih klasifikatorjev Anthropic – prefinjenih sistemov, ki se uporabljajo za prepoznavanje in preprečevanje zlorab, neprimerne vsebine, neželene pošte in drugih škodljivih vzorcev. Ti varnostni mehanizmi postanejo učinkovitejši z učenjem iz podatkov, zbranih v daljših obdobjih, kar izboljšuje sposobnost Claudea, da ostane varno in koristno orodje za vse. Anthropic se zavezuje tudi k širšim razpravam o varnosti umetne inteligence, kot poudarjajo pobude, kot je The Anthropic Institute.
Za zaščito zasebnosti uporabnikov Anthropic uporablja kombinacijo naprednih orodij in avtomatiziranih procesov za filtriranje ali zakrivanje občutljivih podatkov, preden se ti uporabijo za usposabljanje modelov ali analizo. Podjetje odločno izjavlja, da ne prodaja uporabniških podatkov tretjim osebam, kar krepi njegovo zavezanost k zasebnosti tudi pri podaljšani hrambi za podatke, za katere je bila podana privolitev. Uporabniki ohranjajo nadzor nad svojimi podatki tudi po privolitvi; izbris določenega pogovora zagotavlja, da se ne bo uporabil za prihodnje usposabljanje modelov.
Opolnomočenje uporabnikov in upravljanje podatkov
Posodobljeni pogoji za uporabnike in pravilnik o zasebnosti Anthropic poudarjajo uporabniško usmerjen pristop k razvoju umetne inteligence. Z dajanjem izbire, da prispevajo k izboljšanju modela, neposredno v roke uporabnika, si podjetje prizadeva spodbuditi bolj pregledno in sodelovalno razmerje. Možnost spreminjanja teh preferenc kadar koli zagotavlja, da uporabniki ohranijo stalen nadzor nad potovanjem svojih podatkov.
Če se uporabnik sprva odloči za usposabljanje modela, pozneje pa se premisli in se odloči za izključitev, ima Anthropic jasen pravilnik. Medtem ko lahko podatki, uporabljeni v predhodno dokončanih usposabljanjih modelov in že izdanih modelih, še vedno obstajajo v teh različicah, se kateri koli novi klepeti in kodirne seje po odločitvi o izključitvi ne bodo uporabljali za prihodnje usposabljanje. Podjetje se zavezuje, da bo prenehalo uporabljati predhodno shranjene klepete in kodirne seje v vseh prihodnjih iteracijah usposabljanja modelov, ko bo preferenca posodobljena. To ponuja robusten mehanizem za dinamično upravljanje uporabnikovih nastavitev zasebnosti.
Te posodobitve predstavljajo preudaren korak k uravnoteženju izjemnega potenciala inovacij umetne inteligence, ki temeljijo na podatkih, z izjemnim pomenom zasebnosti in preglednosti uporabnikov. Ker so modeli umetne inteligence vse bolj integrirani v vsakdanje življenje, so takšni pravilniki ključnega pomena za izgradnjo zaupanja in zagotavljanje etičnega razvoja.
Pogosta vprašanja
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Bodite na tekočem
Prejemajte najnovejše AI novice po e-pošti.
