Code Velocity
Modele AI

Anthropic Claude: Përditësime të Kushteve të Konsumatorit dhe Politikës së Privatësisë

·5 min lexim·Anthropic·Burimi origjinal
Ndaj
Ekran njoftimi për Përditësimin e Kushteve të Konsumatorit dhe Politikës së Privatësisë së Anthropic Claude

Anthropic Publikon Përditësime Kyçe të Kushteve të Konsumatorit dhe Politikës së Privatësisë së Claude

Anthropic, një kompani lidere e kërkimit në AI, ka njoftuar përditësime thelbësore të Kushteve të Konsumatorit dhe Politikës së Privatësisë për përdoruesit e modeleve të saj AI Claude. Këto ndryshime, të cilat hyjnë në fuqi më 28 Gusht 2025, janë krijuar për t'u ofruar përdoruesve një kontroll më të madh mbi të dhënat e tyre, duke i mundësuar njëkohësisht Anthropic të zhvillojë sisteme AI më të afta dhe më të sigurta. Thelbi i këtyre përditësimeve përqendrohet në një mekanizëm 'opt-in' për përdorimin e të dhënave në trajnimin e modelit dhe një periudhë të zgjatur ruajtjeje të të dhënave për ata që marrin pjesë.

Ky veprim pasqyron një trend në rritje të industrisë drejt një transparence më të madhe dhe agjencisë së përdoruesit në zhvillimin e inteligjencës artificiale. Duke i lejuar përdoruesit të zgjedhin në mënyrë aktive nëse ndërveprimet e tyre kontribuojnë në mësimin e Claude, Anthropic synon të nxisë një mjedis bashkëpunues që përfiton si përdoruesit individualë ashtu edhe ekosistemin më të gjerë të AI. Ky evolucion strategjik i politikave të drejtuara drejt konsumatorit thekson angazhimin e kompanisë ndaj zhvillimit të përgjegjshëm të AI dhe besimit të përdoruesit.

Përmirësimi i Claude me Njohuri dhe Mbrojtje të Drejtuara nga Përdoruesi

Ndryshimi kryesor në politikën e përditësuar të Anthropic është prezantimi i një zgjedhjeje të përdoruesit në lidhje me përdorimin e të dhënave për përmirësimin e modelit. Përdoruesit në planet Falas, Pro dhe Max të Claude, duke përfshirë ata që shfrytëzojnë Kodin e Claude nga llogaritë e lidhura, tani do të kenë mundësinë të lejojnë që të dhënat e tyre të kontribuojnë në trajnimin e modeleve të ardhshme të Claude. Kjo pjesëmarrje pozicionohet si një hap thelbësor drejt ndërtimit të një AI më të fortë dhe më inteligjente.

Pranimi (opt-in) i këtij përdorimi të të dhënave ofron disa përfitime të drejtpërdrejta. Sipas Anthropic, ndërveprimet e përdoruesve ofrojnë njohuri të vlefshme të botës reale që ndihmojnë në rafinimin e protokolleve të sigurisë së modelit, duke i bërë sistemet për zbulimin e përmbajtjes së dëmshme më të sakta dhe më pak të prirura ndaj shënimit të bisedave të padëmshme. Përtej sigurisë, të dhënat e përdoruesve pritet të përmirësojnë ndjeshëm aftësitë thelbësore të Claude, si p.sh. aftësia e kodimit, arsyetimi analitik dhe aftësitë komplekse të zgjidhjes së problemeve. Ky qark i reagimit është thelbësor për evolucionin e vazhdueshëm të modeleve të mëdha gjuhësore, duke çuar në mjete AI më të rafinuara dhe të dobishme për të gjithë.

Është e rëndësishme të theksohet fusha specifike e këtyre përditësimeve. Ndërsa aplikohen për llogaritë e nivelit të konsumatorit, këto ndryshime të politikave nuk shtrihen shprehimisht në shërbimet e qeverisura nga Kushtet Komerciale të Anthropic. Kjo përfshin Claude for Work, Claude for Government, Claude for Education dhe të gjitha përdorimet e API-së, qoftë drejtpërdrejt ose nëpërmjet platformave të palëve të treta si Amazon Bedrock apo Vertex AI të Google Cloud. Ky dallim siguron që klientët komercialë dhe partnerët në nivel ndërmarrjeje të ruajnë marrëveshjet e tyre ekzistuese, shpesh të personalizuara, të të dhënave dhe kornizat e privatësisë. Për përdoruesit që shfrytëzojnë shërbime si Amazon Bedrock AgentCore, marrëveshje të veçanta mbeten në fuqi.

Lundrimi i Zgjedhjeve Tuaja: Opt-in dhe Afatet

Anthropic është e përkushtuar t'u ofrojë përdoruesve kontroll të qartë mbi të dhënat e tyre. Si përdoruesit e rinj ashtu edhe ata ekzistues të Claude do të ndeshen me procese të ndryshme për të bërë zgjedhjet e tyre për ndarjen e të dhënave. Përdoruesit e rinj që regjistrohen për Claude do të gjejnë opsionin për të zgjedhur preferencën e tyre për trajnimin e modelit si pjesë integrale e procesit të regjistrimit, duke u lejuar atyre të përcaktojnë cilësimet e tyre të privatësisë që në fillim.

Për përdoruesit ekzistues, Anthropic ka nisur një shpërndarje të shkallëzuar të njoftimeve brenda aplikacionit. Këto dritare kërcyese (pop-up) do t'u kërkojnë përdoruesve të rishikojnë Kushtet e Konsumatorit dhe Politikën e Privatësisë të përditësuara dhe të vendosin nëse do të lejojnë që të dhënat e tyre të përdoren për përmirësimin e modelit. Përdoruesit kanë një periudhë grace deri më 8 Tetor 2025 për të bërë zgjedhjen e tyre. Nëse një përdorues ekzistues zgjedh të pranojë politikat e reja dhe të zgjedhë 'opt-in' para këtij afati, këto ndryshime do të hyjnë në fuqi menjëherë për të gjitha bisedat dhe sesionet e reja ose të rifilluara të kodimit. Është thelbësore që përdoruesit të bëjnë një zgjedhje deri në datën e specifikuar, pasi përdorimi i vazhdueshëm i Claude pas 8 Tetorit 2025 do të kërkojë një zgjedhje në cilësimin e trajnimit të modelit. Kjo siguron që përdoruesit të jenë të angazhuar në mënyrë aktive në formësimin e peizazhit të tyre të privatësisë.

Vendimtare, kontrolli i përdoruesit nuk është një vendim i njëhershëm. Anthropic thekson se preferencat mund të rregullohen në çdo kohë përmes seksionit të dedikuar të Cilësimeve të Privatësisë brenda ndërfaqes së Claude. Kjo fleksibilitet thekson angazhimin e kompanisë ndaj autonomisë së vazhdueshme të përdoruesit në lidhje me të dhënat e tyre personale.

Krahasimi i Politikave: Përdorimi dhe Ruajtja e të Dhënave

Për të sqaruar ndikimin e këtyre përditësimeve, tabela e mëposhtme përmbledh ndryshimet kryesore midis zgjedhjes 'opt-in' dhe 'opt-out' për përdorimin e të dhënave për trajnimin e modelit sipas Kushteve të reja të Konsumatorit:

KarakteristikaOpt-in për Trajnimin e Modelit (Politika e Re)Opt-out (Politika Ekzistuese/Parazgjedhur)
Përdorimi i të DhënaveBisedat dhe sesionet e reja/rifilluara të kodimit përdoren për përmirësimin e modelit dhe sigurinë.Bisedat dhe sesionet e reja/rifilluara të kodimit nuk përdoren për trajnimin e modelit.
Periudha e Ruajtjes së të Dhënave5 vjet për të dhënat e pranuara.30 ditë për të gjitha të dhënat.
Zbatohet PërLlogaritë Falas, Pro, Max të Claude dhe sesionet e Kodit të Claude.Llogaritë Falas, Pro, Max të Claude dhe sesionet e Kodit të Claude.
PërjashtimetKushtet Komerciale, API, Amazon Bedrock, shërbimet Google Vertex AI.Të njëjtat përjashtime.

Ruajtja Strategjike e të Dhënave për Zhvillimin Afatgjatë të AI

Krahas pranimit (opt-in) për trajnimin e modelit, Anthropic po prezanton gjithashtu një periudhë të zgjatur ruajtjeje të të dhënave për përdoruesit që zgjedhin të marrin pjesë. Nëse një përdorues zgjedh të lejojë të dhënat e tij për përmirësimin e modelit, periudha e ruajtjes për bisedat dhe sesionet e reja ose të rifilluara të kodimit do të zgjatet në pesë vjet. Për përdoruesit që nuk pranojnë, periudha ekzistuese e ruajtjes së të dhënave prej 30 ditësh do të vazhdojë të zbatohet. Kjo ruajtje e zgjatur mbulon gjithashtu reagimet e dorëzuara rreth përgjigjeve të Claude ndaj 'prompts'.

Arsyeja pas periudhës pesëvjeçare të ruajtjes është thellësisht e rrënjosur në realitetet e zhvillimit të avancuar të AI. Modelet e mëdha gjuhësore i nënshtrohen cikleve të zhvillimit që shpesh zgjasin 18 deri në 24 muaj para lëshimit. Mbajtja e konsistencës së të dhënave gjatë periudhave më të gjata është jetike për krijimin e modeleve më të qëndrueshme dhe të parashikueshme. Të dhënat konsistente lejojnë që modelet të trajnohen dhe rafinohen në mënyra të ngjashme, duke çuar në tranzicione dhe përmirësime më të buta për përdoruesit.

Për më tepër, ruajtja e zgjatur ndihmon ndjeshëm në përmirësimin e klasifikuesve të brendshëm të Anthropic – sistemet e sofistikuara të përdorura për të identifikuar dhe kundërshtuar keqpërdorimin, abuzimin, spam-in dhe modelet e tjera të dëmshme. Këta mekanizma sigurie bëhen më efektivë duke mësuar nga të dhënat e mbledhura gjatë periudhave të zgjatura, duke rritur aftësinë e Claude për të mbetur një mjet i sigurt dhe i dobishëm për të gjithë. Anthropic është gjithashtu e angazhuar në diskutime më të gjera mbi sigurinë e AI, siç theksohet nga nismat si Instituti Anthropic.

Për të mbrojtur privatësinë e përdoruesve, Anthropic përdor një kombinim mjetesh të avancuara dhe procesesh të automatizuara për të filtruar ose fshehur të dhënat sensitive përpara se ato të përdoren për ndonjë trajnim ose analizë modelesh. Kompania deklaron me forcë se nuk shet të dhëna të përdoruesve palëve të treta, duke forcuar angazhimin e saj ndaj privatësisë edhe me ruajtjen e zgjatur për të dhënat e pranuara. Përdoruesit ruajnë kontrollin mbi të dhënat e tyre edhe pasi të kenë pranuar; fshirja e një bisede specifike siguron që ajo nuk do të përdoret për trajnimin e ardhshëm të modelit.

Fuqizimi i Përdoruesve dhe Qeverisja e të Dhënave

Kushtet e përditësuara të Konsumatorit dhe Politika e Privatësisë së Anthropic theksojnë një qasje të qendërzuar te përdoruesi në zhvillimin e AI. Duke vendosur zgjedhjen për të kontribuar në përmirësimin e modelit drejtpërdrejt në duart e përdoruesit, kompania synon të nxisë një marrëdhënie më transparente dhe bashkëpunuese. Aftësia për të modifikuar këto preferenca në çdo kohë siguron që përdoruesit të ruajnë kontrollin e vazhdueshëm mbi udhëtimin e të dhënave të tyre.

Nëse një përdorues fillimisht pranon (opt-in) për trajnimin e modelit, por më vonë vendos të ndryshojë mendje dhe të tërhiqet (opt-out), Anthropic ka një politikë të qartë. Ndërsa të dhënat e përdorura në rregullimet e trajnimit të modelit të përfunduar më parë dhe modelet tashmë të lëshuara mund të ekzistojnë ende brenda atyre versioneve, çdo bisedë dhe sesion i ri kodimi pas vendimit të tërheqjes nuk do të përdoret për trajnimin e ardhshëm. Kompania angazhohet të ndërpresë përdorimin e bisedave dhe sesioneve të kodimit të ruajtura më parë në çdo përsëritje të ardhme të trajnimit të modelit, pasi preferenca të jetë përditësuar. Kjo ofron një mekanizëm të fortë për përdoruesit për të menaxhuar cilësimet e tyre të privatësisë në mënyrë dinamike.

Këto përditësime përfaqësojnë një hap të matur drejt balancimit të potencialit të jashtëzakonshëm të inovacionit të AI të bazuar në të dhëna me rëndësinë kryesore të privatësisë së përdoruesve dhe transparencës. Ndërsa modelet AI bëhen gjithnjë e më shumë pjesë integrale e jetës së përditshme, politika të tilla janë thelbësore për ndërtimin e besimit dhe sigurimin e zhvillimit etik.

Pyetjet e bëra shpesh

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Qëndroni të përditësuar

Merrni lajmet më të fundit të AI në email.

Ndaj