Anthropic lansează actualizări cheie ale Termenilor de Consum și Politicii de Confidențialitate Claude
Anthropic, o companie de cercetare AI de top, a anunțat actualizări semnificative ale Termenilor de Consum și Politicii de Confidențialitate pentru utilizatorii modelelor sale AI Claude. Aceste modificări, efective de la 28 august 2025, sunt concepute pentru a oferi utilizatorilor un control mai mare asupra datelor lor, permițând în același timp Anthropic să dezvolte sisteme AI mai capabile și mai sigure. Nucleul acestor actualizări se concentrează pe un mecanism de opt-in pentru utilizarea datelor în antrenarea modelelor și o perioadă extinsă de retenție a datelor pentru cei care participă.
Această mișcare reflectă o tendință crescândă în industrie către o transparență mai mare și o agenție a utilizatorilor în dezvoltarea inteligenței artificiale. Permițând utilizatorilor să aleagă activ dacă interacțiunile lor contribuie la învățarea Claude, Anthropic își propune să creeze un mediu colaborativ care beneficiază atât utilizatorii individuali, cât și ecosistemul AI mai larg. Această evoluție strategică a politicilor orientate către consumatori subliniază angajamentul companiei față de dezvoltarea responsabilă a AI și încrederea utilizatorilor.
Îmbunătățirea Claude cu Perspective și Măsuri de Siguranță bazate pe Utilizatori
Principala modificare în politica actualizată a Anthropic este introducerea unei opțiuni pentru utilizatori privind utilizarea datelor pentru îmbunătățirea modelului. Utilizatorii planurilor Claude Free, Pro și Max, inclusiv cei care utilizează Claude Code din conturile asociate, vor avea acum opțiunea de a permite ca datele lor să contribuie la antrenarea viitoarelor modele Claude. Această participare este poziționată ca un pas crucial spre construirea unei AI mai robuste și mai inteligente.
Opțiunea de a permite această utilizare a datelor oferă mai multe beneficii directe. Potrivit Anthropic, interacțiunile utilizatorilor furnizează informații valoroase din lumea reală care ajută la rafinarea protocoalelor de siguranță ale modelului, făcând sistemele de detectare a conținutului dăunător mai precise și mai puțin predispuse să semnaleze conversații inofensive. Pe lângă siguranță, se așteaptă ca datele utilizatorilor să îmbunătățească semnificativ capacitățile de bază ale Claude, cum ar fi competența în codare, raționamentul analitic și abilitățile complexe de rezolvare a problemelor. Această buclă de feedback este esențială pentru evoluția continuă a modelelor lingvistice mari, ducând la instrumente AI mai rafinate și utile pentru toți.
Este important de reținut sfera specifică a acestor actualizări. Deși aplicabile conturilor de nivel consumator, aceste modificări de politică nu se extind în mod explicit la serviciile reglementate de Termenii Comerciali ai Anthropic. Aceasta include Claude for Work, Claude for Government, Claude for Education și toate utilizările API-ului, fie direct, fie prin platforme terțe precum Amazon Bedrock sau Google Cloud’s Vertex AI. Această distincție asigură că clienții comerciali și partenerii la nivel de întreprindere își mențin acordurile de date și cadrele de confidențialitate existente, adesea personalizate. Pentru utilizatorii care utilizează servicii precum Amazon Bedrock AgentCore, acordurile separate rămân în vigoare.
Navigarea Opțiunilor Tale: Opt-in și Termene Limită
Anthropic se angajează să ofere utilizatorilor un control clar asupra datelor lor. Atât utilizatorii Claude noi, cât și cei existenți vor întâmpina procese distincte pentru a-și face alegerile de partajare a datelor. Utilizatorii noi care se înscriu la Claude vor găsi opțiunea de a-și selecta preferința pentru antrenarea modelelor ca parte integrantă a procesului de înregistrare, permițându-le să-și definească setările de confidențialitate de la bun început.
Pentru utilizatorii existenți, Anthropic a inițiat o implementare fazată a notificărilor în aplicație. Aceste ferestre pop-up vor solicita utilizatorilor să revizuiască Termenii de Consum și Politica de Confidențialitate actualizate și să decidă dacă permit ca datele lor să fie utilizate pentru îmbunătățirea modelului. Utilizatorii au o perioadă de grație până la 8 octombrie 2025 pentru a face selecția. Dacă un utilizator existent alege să accepte noile politici și să opteze înainte de acest termen limită, aceste modificări vor intra în vigoare imediat pentru toate chat-urile și sesiunile de codare noi sau reluate. Este crucial ca utilizatorii să facă o alegere până la data specificată, deoarece utilizarea continuă a Claude după 8 octombrie 2025 va necesita o selecție a setării de antrenare a modelului. Acest lucru asigură că utilizatorii sunt implicați activ în modelarea peisajului lor de confidențialitate.
În mod crucial, controlul utilizatorului nu este o decizie unică. Anthropic subliniază că preferințele pot fi ajustate în orice moment prin secțiunea dedicată Setări de Confidențialitate din interfața Claude. Această flexibilitate subliniază angajamentul companiei față de autonomia continuă a utilizatorilor în ceea ce privește datele lor personale.
Comparație Politică: Utilizarea Datelor și Retenție
Pentru a clarifica impactul acestor actualizări, următorul tabel sumarizează diferențele cheie între optarea și neoptarea pentru utilizarea datelor în antrenarea modelului conform noilor Termeni de Consum:
| Caracteristică | Opt-in pentru Antrenarea Modelului (Politică Nouă) | Opt-out (Politică Existentă/Implicită) |
|---|---|---|
| Utilizarea Datelor | Chat-uri noi/reluuate și sesiuni de codare utilizate pentru îmbunătățirea și siguranța modelului. | Chat-uri noi/reluuate și sesiuni de codare nu sunt utilizate pentru antrenarea modelului. |
| Perioada de Retenție a Datelor | 5 ani pentru datele opt-in. | 30 de zile pentru toate datele. |
| Se Aplică Pentru | Conturi Claude Free, Pro, Max și sesiuni Claude Code. | Conturi Claude Free, Pro, Max și sesiuni Claude Code. |
| Excluziuni | Termeni Comerciali, API, Amazon Bedrock, servicii Google Vertex AI. | Aceleași excluziuni. |
Retenția Strategică a Datelor pentru Dezvoltarea AI pe Termen Lung
Pe lângă opțiunea de a permite antrenarea modelului, Anthropic introduce și o perioadă extinsă de retenție a datelor pentru utilizatorii care aleg să participe. Dacă un utilizator optează să-și permită datele pentru îmbunătățirea modelului, perioada de retenție pentru chat-urile și sesiunile de codare noi sau reluate va fi extinsă la cinci ani. Pentru utilizatorii care nu optează, perioada existentă de retenție a datelor de 30 de zile va continua să se aplice. Această retenție extinsă acoperă, de asemenea, feedback-ul trimis despre răspunsurile Claude la prompturi.
Rațiunea din spatele perioadei de retenție de cinci ani este profund înrădăcinată în realitățile dezvoltării avansate a AI. Modelele lingvistice mari parcurg cicluri de dezvoltare care se întind adesea pe 18 până la 24 de luni înainte de lansare. Menținerea consistenței datelor pe perioade mai lungi este vitală pentru crearea de modele mai stabile și mai previzibile. Datele consistente permit ca modelele să fie antrenate și rafinate în moduri similare, ducând la tranziții și actualizări mai line pentru utilizatori.
În plus, retenția extinsă ajută semnificativ la îmbunătățirea clasificatorilor interni ai Anthropic—sistemele sofisticate utilizate pentru a identifica și contracara utilizarea abuzivă, abuzul, spamul și alte tipare dăunătoare. Aceste mecanisme de siguranță devin mai eficiente învățând din date colectate pe durate extinse, îmbunătățind capacitatea Claude de a rămâne un instrument sigur și benefic pentru toată lumea. Anthropic se angajează, de asemenea, în discuții mai ample despre siguranța AI, așa cum este evidențiat de inițiative precum Institutul Anthropic.
Pentru a proteja confidențialitatea utilizatorilor, Anthropic utilizează o combinație de instrumente avansate și procese automate pentru a filtra sau a ascunde datele sensibile înainte ca acestea să fie utilizate pentru orice antrenare sau analiză a modelului. Compania afirmă categoric că nu vinde datele utilizatorilor către terți, întărind angajamentul său față de confidențialitate chiar și cu retenția extinsă pentru datele opt-in. Utilizatorii își mențin controlul asupra datelor lor chiar și după ce au optat; ștergerea unei conversații asigură că aceasta nu va fi utilizată pentru antrenarea viitoare a modelului.
Împuternicirea Utilizatorilor și Guvernanța Datelor
Termenii de Consum și Politica de Confidențialitate actualizate ale Anthropic subliniază o abordare centrată pe utilizator în dezvoltarea AI. Prin plasarea alegerii de a contribui la îmbunătățirea modelului direct în mâinile utilizatorului, compania își propune să promoveze o relație mai transparentă și colaborativă. Capacitatea de a modifica aceste preferințe în orice moment asigură că utilizatorii își păstrează controlul continuu asupra parcursului datelor lor.
În cazul în care un utilizator optează inițial pentru antrenarea modelului, dar decide ulterior să-și schimbe decizia și să se retragă, Anthropic are o politică clară. Deși datele utilizate în rundele de antrenare a modelului finalizate anterior și în modelele deja lansate pot exista încă în acele versiuni, orice noi chat-uri și sesiuni de codare după decizia de retragere nu vor fi utilizate pentru antrenamente viitoare. Compania se angajează să întrerupă utilizarea chat-urilor și sesiunilor de codare stocate anterior în orice viitoare iterații de antrenare a modelelor odată ce preferința este actualizată. Aceasta oferă un mecanism robust pentru utilizatori de a-și gestiona setările de confidențialitate în mod dinamic.
Aceste actualizări reprezintă un pas măsurat către echilibrarea potențialului imens al inovației AI bazate pe date cu importanța primordială a confidențialității utilizatorilor și a transparenței. Pe măsură ce modelele AI devin din ce în ce mai integrate în viața de zi cu zi, politici precum acestea sunt cruciale pentru construirea încrederii și asigurarea dezvoltării etice.
Sursa originală
https://www.anthropic.com/news/updates-to-our-consumer-termsÎntrebări frecvente
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Rămâi la curent
Primește ultimele știri AI în inbox-ul tău.
