Code Velocity
Modele AI

Anthropic Claude: Actualizări ale Termenilor de Consum și Politicii de Confidențialitate

·5 min de citit·Anthropic·Sursa originală
Distribuie
Ecran de notificare pentru actualizarea Termenilor de Consum și Politicii de Confidențialitate Anthropic Claude

Anthropic lansează actualizări cheie ale Termenilor de Consum și Politicii de Confidențialitate Claude

Anthropic, o companie de cercetare AI de top, a anunțat actualizări semnificative ale Termenilor de Consum și Politicii de Confidențialitate pentru utilizatorii modelelor sale AI Claude. Aceste modificări, efective de la 28 august 2025, sunt concepute pentru a oferi utilizatorilor un control mai mare asupra datelor lor, permițând în același timp Anthropic să dezvolte sisteme AI mai capabile și mai sigure. Nucleul acestor actualizări se concentrează pe un mecanism de opt-in pentru utilizarea datelor în antrenarea modelelor și o perioadă extinsă de retenție a datelor pentru cei care participă.

Această mișcare reflectă o tendință crescândă în industrie către o transparență mai mare și o agenție a utilizatorilor în dezvoltarea inteligenței artificiale. Permițând utilizatorilor să aleagă activ dacă interacțiunile lor contribuie la învățarea Claude, Anthropic își propune să creeze un mediu colaborativ care beneficiază atât utilizatorii individuali, cât și ecosistemul AI mai larg. Această evoluție strategică a politicilor orientate către consumatori subliniază angajamentul companiei față de dezvoltarea responsabilă a AI și încrederea utilizatorilor.

Îmbunătățirea Claude cu Perspective și Măsuri de Siguranță bazate pe Utilizatori

Principala modificare în politica actualizată a Anthropic este introducerea unei opțiuni pentru utilizatori privind utilizarea datelor pentru îmbunătățirea modelului. Utilizatorii planurilor Claude Free, Pro și Max, inclusiv cei care utilizează Claude Code din conturile asociate, vor avea acum opțiunea de a permite ca datele lor să contribuie la antrenarea viitoarelor modele Claude. Această participare este poziționată ca un pas crucial spre construirea unei AI mai robuste și mai inteligente.

Opțiunea de a permite această utilizare a datelor oferă mai multe beneficii directe. Potrivit Anthropic, interacțiunile utilizatorilor furnizează informații valoroase din lumea reală care ajută la rafinarea protocoalelor de siguranță ale modelului, făcând sistemele de detectare a conținutului dăunător mai precise și mai puțin predispuse să semnaleze conversații inofensive. Pe lângă siguranță, se așteaptă ca datele utilizatorilor să îmbunătățească semnificativ capacitățile de bază ale Claude, cum ar fi competența în codare, raționamentul analitic și abilitățile complexe de rezolvare a problemelor. Această buclă de feedback este esențială pentru evoluția continuă a modelelor lingvistice mari, ducând la instrumente AI mai rafinate și utile pentru toți.

Este important de reținut sfera specifică a acestor actualizări. Deși aplicabile conturilor de nivel consumator, aceste modificări de politică nu se extind în mod explicit la serviciile reglementate de Termenii Comerciali ai Anthropic. Aceasta include Claude for Work, Claude for Government, Claude for Education și toate utilizările API-ului, fie direct, fie prin platforme terțe precum Amazon Bedrock sau Google Cloud’s Vertex AI. Această distincție asigură că clienții comerciali și partenerii la nivel de întreprindere își mențin acordurile de date și cadrele de confidențialitate existente, adesea personalizate. Pentru utilizatorii care utilizează servicii precum Amazon Bedrock AgentCore, acordurile separate rămân în vigoare.

Anthropic se angajează să ofere utilizatorilor un control clar asupra datelor lor. Atât utilizatorii Claude noi, cât și cei existenți vor întâmpina procese distincte pentru a-și face alegerile de partajare a datelor. Utilizatorii noi care se înscriu la Claude vor găsi opțiunea de a-și selecta preferința pentru antrenarea modelelor ca parte integrantă a procesului de înregistrare, permițându-le să-și definească setările de confidențialitate de la bun început.

Pentru utilizatorii existenți, Anthropic a inițiat o implementare fazată a notificărilor în aplicație. Aceste ferestre pop-up vor solicita utilizatorilor să revizuiască Termenii de Consum și Politica de Confidențialitate actualizate și să decidă dacă permit ca datele lor să fie utilizate pentru îmbunătățirea modelului. Utilizatorii au o perioadă de grație până la 8 octombrie 2025 pentru a face selecția. Dacă un utilizator existent alege să accepte noile politici și să opteze înainte de acest termen limită, aceste modificări vor intra în vigoare imediat pentru toate chat-urile și sesiunile de codare noi sau reluate. Este crucial ca utilizatorii să facă o alegere până la data specificată, deoarece utilizarea continuă a Claude după 8 octombrie 2025 va necesita o selecție a setării de antrenare a modelului. Acest lucru asigură că utilizatorii sunt implicați activ în modelarea peisajului lor de confidențialitate.

În mod crucial, controlul utilizatorului nu este o decizie unică. Anthropic subliniază că preferințele pot fi ajustate în orice moment prin secțiunea dedicată Setări de Confidențialitate din interfața Claude. Această flexibilitate subliniază angajamentul companiei față de autonomia continuă a utilizatorilor în ceea ce privește datele lor personale.

Comparație Politică: Utilizarea Datelor și Retenție

Pentru a clarifica impactul acestor actualizări, următorul tabel sumarizează diferențele cheie între optarea și neoptarea pentru utilizarea datelor în antrenarea modelului conform noilor Termeni de Consum:

CaracteristicăOpt-in pentru Antrenarea Modelului (Politică Nouă)Opt-out (Politică Existentă/Implicită)
Utilizarea DatelorChat-uri noi/reluuate și sesiuni de codare utilizate pentru îmbunătățirea și siguranța modelului.Chat-uri noi/reluuate și sesiuni de codare nu sunt utilizate pentru antrenarea modelului.
Perioada de Retenție a Datelor5 ani pentru datele opt-in.30 de zile pentru toate datele.
Se Aplică PentruConturi Claude Free, Pro, Max și sesiuni Claude Code.Conturi Claude Free, Pro, Max și sesiuni Claude Code.
ExcluziuniTermeni Comerciali, API, Amazon Bedrock, servicii Google Vertex AI.Aceleași excluziuni.

Retenția Strategică a Datelor pentru Dezvoltarea AI pe Termen Lung

Pe lângă opțiunea de a permite antrenarea modelului, Anthropic introduce și o perioadă extinsă de retenție a datelor pentru utilizatorii care aleg să participe. Dacă un utilizator optează să-și permită datele pentru îmbunătățirea modelului, perioada de retenție pentru chat-urile și sesiunile de codare noi sau reluate va fi extinsă la cinci ani. Pentru utilizatorii care nu optează, perioada existentă de retenție a datelor de 30 de zile va continua să se aplice. Această retenție extinsă acoperă, de asemenea, feedback-ul trimis despre răspunsurile Claude la prompturi.

Rațiunea din spatele perioadei de retenție de cinci ani este profund înrădăcinată în realitățile dezvoltării avansate a AI. Modelele lingvistice mari parcurg cicluri de dezvoltare care se întind adesea pe 18 până la 24 de luni înainte de lansare. Menținerea consistenței datelor pe perioade mai lungi este vitală pentru crearea de modele mai stabile și mai previzibile. Datele consistente permit ca modelele să fie antrenate și rafinate în moduri similare, ducând la tranziții și actualizări mai line pentru utilizatori.

În plus, retenția extinsă ajută semnificativ la îmbunătățirea clasificatorilor interni ai Anthropic—sistemele sofisticate utilizate pentru a identifica și contracara utilizarea abuzivă, abuzul, spamul și alte tipare dăunătoare. Aceste mecanisme de siguranță devin mai eficiente învățând din date colectate pe durate extinse, îmbunătățind capacitatea Claude de a rămâne un instrument sigur și benefic pentru toată lumea. Anthropic se angajează, de asemenea, în discuții mai ample despre siguranța AI, așa cum este evidențiat de inițiative precum Institutul Anthropic.

Pentru a proteja confidențialitatea utilizatorilor, Anthropic utilizează o combinație de instrumente avansate și procese automate pentru a filtra sau a ascunde datele sensibile înainte ca acestea să fie utilizate pentru orice antrenare sau analiză a modelului. Compania afirmă categoric că nu vinde datele utilizatorilor către terți, întărind angajamentul său față de confidențialitate chiar și cu retenția extinsă pentru datele opt-in. Utilizatorii își mențin controlul asupra datelor lor chiar și după ce au optat; ștergerea unei conversații asigură că aceasta nu va fi utilizată pentru antrenarea viitoare a modelului.

Împuternicirea Utilizatorilor și Guvernanța Datelor

Termenii de Consum și Politica de Confidențialitate actualizate ale Anthropic subliniază o abordare centrată pe utilizator în dezvoltarea AI. Prin plasarea alegerii de a contribui la îmbunătățirea modelului direct în mâinile utilizatorului, compania își propune să promoveze o relație mai transparentă și colaborativă. Capacitatea de a modifica aceste preferințe în orice moment asigură că utilizatorii își păstrează controlul continuu asupra parcursului datelor lor.

În cazul în care un utilizator optează inițial pentru antrenarea modelului, dar decide ulterior să-și schimbe decizia și să se retragă, Anthropic are o politică clară. Deși datele utilizate în rundele de antrenare a modelului finalizate anterior și în modelele deja lansate pot exista încă în acele versiuni, orice noi chat-uri și sesiuni de codare după decizia de retragere nu vor fi utilizate pentru antrenamente viitoare. Compania se angajează să întrerupă utilizarea chat-urilor și sesiunilor de codare stocate anterior în orice viitoare iterații de antrenare a modelelor odată ce preferința este actualizată. Aceasta oferă un mecanism robust pentru utilizatori de a-și gestiona setările de confidențialitate în mod dinamic.

Aceste actualizări reprezintă un pas măsurat către echilibrarea potențialului imens al inovației AI bazate pe date cu importanța primordială a confidențialității utilizatorilor și a transparenței. Pe măsură ce modelele AI devin din ce în ce mai integrate în viața de zi cu zi, politici precum acestea sunt cruciale pentru construirea încrederii și asigurarea dezvoltării etice.

Întrebări frecvente

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Rămâi la curent

Primește ultimele știri AI în inbox-ul tău.

Distribuie