title: "Anthropic Claude: Actualitzacions de les Condicions de Consum i la Política de Privadesa" slug: "updates-to-our-consumer-terms" date: "2026-03-17" lang: "ca" source: "https://www.anthropic.com/news/updates-to-our-consumer-terms" category: "Models d'IA" keywords:
- Anthropic
- Claude AI
- Condicions de Consum
- Política de Privadesa
- Ús de Dades
- Entrenament de Models
- Seguretat de l'IA
- Retenció de Dades
- Preferències d'Usuari
- Desenvolupament d'IA
- Política de LLM
- Transparència meta_description: "Anthropic anuncia actualitzacions clau de les Condicions de Consum i la Política de Privadesa de Claude, oferint als usuaris control sobre l'ús de dades per millorar el model i ampliant la retenció de dades per seguretat i desenvolupament." image: "/images/articles/updates-to-our-consumer-terms.png" image_alt: "Pantalla de notificació d'actualització de les Condicions de Consum i la Política de Privadesa d'Anthropic Claude" quality_score: 94 content_score: 93 seo_score: 95 companies:
- Anthropic schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Quins són els canvis principals introduïts a les Condicions de Consum i la Política de Privadesa actualitzades d'Anthropic per als usuaris de Claude?" answer: "Anthropic està implementant actualitzacions significatives a les seves Condicions de Consum i Política de Privadesa, centrades principalment en donar als usuaris l'opció de permetre que les seves dades s'utilitzin per millorar els models d'IA de Claude. Quan aquesta configuració està activada, les dades dels comptes Gratuïts, Pro i Max, incloses les sessions de Claude Code, contribuiran a l'entrenament de nous models. Això té com a objectiu millorar la seguretat, la precisió i les capacitats del model en àrees com la codificació, l'anàlisi i el raonament. A més, per als usuaris que opten per participar, el període de retenció de dades s'ampliarà a cinc anys. Per contra, si els usuaris decideixen no participar en l'entrenament del model, la política existent de retenció de dades de 30 dies es mantindrà vigent. Aquests canvis no afecten els usuaris comercials sota acords empresarials específics o l'ús d'API, assegurant polítiques diferents per a diferents segments d'usuaris."
- question: "Quins serveis de Claude i tipus d'usuaris es veuen afectats per aquestes noves actualitzacions de política, i quins no?" answer: "Les Condicions de Consum i la Política de Privadesa actualitzades s'apliquen específicament als usuaris individuals dels plans Gratuït, Pro i Max de Claude d'Anthropic. Això inclou els casos en què els usuaris interactuen amb Claude Code a través de comptes associats amb aquests plans de consumidor. No obstant això, és crucial entendre que aquestes actualitzacions no s'estenen als serveis que operen sota les Condicions Comercials d'Anthropic. Això significa que Claude for Work (incloent els plans Team i Enterprise), Claude for Government, Claude for Education, i tots els usos d'API —ja siguin directes o a través de plataformes de tercers com Amazon Bedrock o Vertex AI de Google Cloud— estan explícitament exclosos d'aquests nous canvis de política centrats en el consumidor. Els usuaris comercials i els integradors d'API continuaran operant sota els seus acords existents, que tenen disposicions de privadesa i maneig de dades separades."
- question: "Per què Anthropic fa aquests canvis, particularment pel que fa a l'ús de dades per a l'entrenament de models i la retenció ampliada?" answer: "Anthropic afirma que aquests canvis es basen en la necessitat fonamental de millorar contínuament la capacitat, la seguretat i la utilitat dels grans models de llenguatge com Claude. Les interaccions del món real proporcionen senyals de dades inestimables que ajuden els models a aprendre quines respostes són més útils, precises i segures. Per exemple, els desenvolupadors que depuren codi amb Claude ofereixen coneixements crucials per millorar les futures capacitats de codificació. La retenció de dades ampliada de cinc anys, específicament per als usuaris que opten per participar, està dissenyada per donar suport als llargs cicles de desenvolupament de l'IA, assegurant la consistència de les dades per a actualitzacions de models més estables i millorant l'efectivitat dels classificadors interns que detecten i mitiguen patrons d'ús nocius, com l'abús o el correu brossa, durant períodes més llargs, fent que Claude sigui més segur per a tothom."
- question: "Quins passos han de seguir els usuaris de Claude existents i nous respecte a aquestes actualitzacions de política i les seves preferències de dades?" answer: "Els usuaris existents de Claude rebran una notificació a l'aplicació que els demanarà que revisin les actualitzacions i prenguin una decisió sobre si permeten que els seus xats i sessions de codificació s'utilitzin per millorar el model. Els usuaris tenen fins al 8 d'octubre de 2025 per fer aquesta selecció. Si opten per acceptar abans, les noves polítiques s'aplicaran immediatament als xats nous o represos. Després del termini, fer una selecció és obligatori per continuar utilitzant Claude. Els nous usuaris se'ls presentarà aquesta opció com a part del procés inicial d'inscripció. Independentment de si un és un usuari nou o existent, la preferència es pot modificar en qualsevol moment a través de la secció de Configuració de Privadesa dedicada dins de la interfície de Claude, oferint un control continu sobre l'ús de dades personals i garantint la transparència."
- question: "Què passa si un usuari inicialment permet les dades per a l'entrenament del model però més tard decideix canviar d'opinió i optar per no participar?" answer: "Anthropic subratlla que els usuaris conserven el control total sobre les seves preferències de dades i poden actualitzar la seva selecció en qualsevol moment a través de la seva Configuració de Privadesa. Si un usuari inicialment opta per participar en l'entrenament del model i més tard decideix desactivar aquesta configuració, els nous xats i sessions de codificació amb Claude ja no s'utilitzaran per a futures execucions d'entrenament del model. És important tenir en compte, però, que les dades de les execucions d'entrenament del model prèviament completades i dels models que ja s'han llançat encara poden contenir dades de les seves interaccions passades. No obstant això, Anthropic es compromet a deixar d'utilitzar aquests xats i sessions de codificació prèviament emmagatzemades en qualsevol futura iteració d'entrenament del model un cop es registri la preferència de no participació, respectant així la decisió actualitzada de l'usuari sobre l'ús continuat de dades i la privadesa."
- question: "Com garanteix Anthropic la privadesa de l'usuari i la protecció de dades amb aquestes noves polítiques, especialment amb la retenció ampliada?" answer: "Per protegir la privadesa de l'usuari, Anthropic utilitza una combinació d'eines avançades i processos automatitzats dissenyats per filtrar o ofuscar dades sensibles abans que s'utilitzin per a l'entrenament del model, fins i tot amb el període de retenció ampliat per als usuaris que hi han optat. La companyia afirma explícitament que no ven dades d'usuari a tercers, reforçant el seu compromís amb la privadesa. A més, els usuaris mantenen el control: l'eliminació d'una conversa garanteix que no s'utilitzarà per a futurs entrenaments del model, i el canvi de la configuració d'opt-in impedeix que s'utilitzin nous xats. Aquestes mesures tenen com a objectiu equilibrar la necessitat de millora del model basada en dades amb proteccions de privadesa estrictes, garantint la confiança de l'usuari i la seguretat de les dades durant tot el cicle de vida del desenvolupament de l'IA. Aquest enfocament integral subratlla la dedicació d'Anthropic a les pràctiques d'IA responsables."
# Anthropic implementa actualitzacions clau a les Condicions de Consum i la Política de Privadesa de Claude
Anthropic, una empresa líder en recerca d'IA, ha anunciat actualitzacions significatives de les seves Condicions de Consum i la Política de Privadesa per als usuaris dels seus models d'IA Claude. Aquests canvis, efectius a partir del 28 d'agost de 2025, estan dissenyats per donar als usuaris un major control sobre les seves dades, alhora que permeten a Anthropic desenvolupar sistemes d'IA més capaços i segurs. El nucli d'aquestes actualitzacions se centra en un mecanisme d'opt-in per a l'ús de dades en l'entrenament del model i un període de retenció de dades ampliat per a aquells que hi participen.
Aquesta mesura reflecteix una tendència creixent de la indústria cap a una major transparència i autonomia de l'usuari en el desenvolupament de la intel·ligència artificial. En permetre als usuaris triar activament si les seves interaccions contribueixen a l'aprenentatge de Claude, Anthropic té com a objectiu fomentar un entorn col·laboratiu que beneficiï tant els usuaris individuals com l'ecosistema d'IA més ampli. Aquesta evolució estratègica de les polítiques orientades al consumidor subratlla el compromís de la companyia amb el desenvolupament responsable de l'IA i la confiança dels usuaris.
## Millorant Claude amb coneixements i salvaguardes impulsats per l'usuari
El canvi principal en la política actualitzada d'Anthropic és la introducció d'una elecció per part de l'usuari respecte a la utilització de dades per a la millora del model. Els usuaris dels plans Gratuït, Pro i Max de Claude, inclosos aquells que utilitzen Claude Code des de comptes associats, ara tindran l'opció de permetre que les seves dades contribueixin a l'entrenament de futurs models de Claude. Aquesta participació es posiciona com un pas crucial cap a la construcció d'una IA més robusta i intel·ligent.
Optar per aquest ús de dades ofereix diversos beneficis directes. Segons Anthropic, les interaccions dels usuaris proporcionen informació valuosa del món real que ajuda a refinar els protocols de seguretat del model, fent que els sistemes per detectar contingut nociu siguin més precisos i menys propensos a assenyalar converses inofensives. Més enllà de la seguretat, s'espera que les dades dels usuaris millorin significativament les capacitats principals de Claude, com la competència en codificació, el raonament analític i les habilitats de resolució de problemes complexos. Aquest bucle de retroalimentació és essencial per a l'evolució contínua dels grans models de llenguatge, el que porta a eines d'IA més refinades i útils per a tothom.
És important tenir en compte l'abast específic d'aquestes actualitzacions. Tot i que són aplicables als comptes de nivell de consumidor, aquests canvis de política explícitament **no** s'estenen als serveis regits per les Condicions Comercials d'Anthropic. Això inclou Claude for Work, Claude for Government, Claude for Education i tots els usos d'API, ja siguin directament o a través de plataformes de tercers com Amazon Bedrock o Vertex AI de Google Cloud. Aquesta distinció garanteix que els clients comercials i els socis a nivell empresarial mantinguin els seus acords de dades i marcs de privadesa existents, sovint a mida. Per als usuaris que utilitzen serveis com [Amazon Bedrock AgentCore](/ca/amazon-bedrock-agentcore), es mantenen acords separats.
## Navegant per les teves opcions: Opt-in i terminis
Anthropic es compromet a proporcionar als usuaris un control clar sobre les seves dades. Tant els usuaris nous com els existents de Claude trobaran processos diferents per prendre les seves decisions de compartició de dades. Els nous usuaris que es registrin a Claude trobaran l'opció de seleccionar la seva preferència per a l'entrenament del model com a part integral del procés d'incorporació, permetent-los definir la seva configuració de privadesa des del principi.
Per als usuaris existents, Anthropic ha iniciat un llançament gradual de notificacions a l'aplicació. Aquestes finestres emergents demanaran als usuaris que revisin les Condicions de Consum i la Política de Privadesa actualitzades i que decideixin si permeten que les seves dades s'utilitzin per a la millora del model. Els usuaris tenen un període de gràcia fins al **8 d'octubre de 2025** per fer la seva selecció. Si un usuari existent opta per acceptar les noves polítiques i participar abans d'aquest termini, aquests canvis s'aplicaran immediatament a tots els xats nous o represos i a les sessions de codificació. És crucial que els usuaris prenguin una decisió abans de la data especificada, ja que l'ús continuat de Claude després del 8 d'octubre de 2025 requerirà una selecció a la configuració d'entrenament del model. Això garanteix que els usuaris participen activament en la configuració del seu paisatge de privadesa.
Crucialment, el control de l'usuari no és una decisió única. Anthropic subratlla que les preferències es poden ajustar en qualsevol moment a través de la secció dedicada de Configuració de Privadesa dins de la interfície de Claude. Aquesta flexibilitat subratlla el compromís de la companyia amb l'autonomia contínua de l'usuari respecte a les seves dades personals.
## Comparació de polítiques: Ús i retenció de dades
Per aclarir l'impacte d'aquestes actualitzacions, la següent taula resumeix les diferències clau entre optar per participar i no participar en l'ús de dades per a l'entrenament del model segons les noves Condicions de Consum:
| Característica | Opt-in per a l'entrenament del model (Nova política) | Opt-out (Política existent/per defecte) |
| :------------------------ | :--------------------------------------------------------------------- | :---------------------------------------------------------------- |
| **Ús de dades** | Els xats i sessions de codificació nous/represos s'utilitzen per millorar i seguretat del model. | Els xats i sessions de codificació nous/represos **no** s'utilitzen per a l'entrenament del model. |
| **Període de retenció de dades** | 5 anys per a les dades amb opt-in. | 30 dies per a totes les dades. |
| **Aplicable a** | Comptes Claude Free, Pro, Max i sessions Claude Code. | Comptes Claude Free, Pro, Max i sessions Claude Code. |
| **Exclusions** | Condicions Comercials, API, Amazon Bedrock, serveis Google Vertex AI. | Les mateixes exclusions. |
## Retenció estratègica de dades per al desenvolupament a llarg termini de l'IA
Juntament amb l'opció de participar en l'entrenament del model, Anthropic també introdueix un període de retenció de dades ampliat per als usuaris que decideixen participar. Si un usuari opta per permetre les seves dades per a la millora del model, el període de retenció per a xats nous o represos i sessions de codificació s'ampliarà a cinc anys. Per als usuaris que no participen, es continuarà aplicant el període de retenció de dades existent de 30 dies. Aquesta retenció ampliada també cobreix els comentaris enviats sobre les respostes de Claude a les indicacions.
La raó darrere del període de retenció de cinc anys es basa profundament en les realitats del desenvolupament avançat de l'IA. Els grans models de llenguatge se sotmeten a cicles de desenvolupament que sovint s'estenen de 18 a 24 mesos abans del llançament. Mantenir la consistència de les dades durant períodes més llargs és vital per crear models més estables i predictibles. Les dades consistents permeten que els models siguin entrenats i refinats de maneres similars, la qual cosa porta a transicions i actualitzacions més fluides per als usuaris.
A més, la retenció ampliada ajuda significativament a millorar els classificadors interns d'Anthropic, els sofisticats sistemes utilitzats per identificar i contrarestar l'ús indegut, l'abús, el correu brossa i altres patrons nocius. Aquests mecanismes de seguretat es tornen més efectius aprenent de les dades recopilades durant períodes més llargs, millorant la capacitat de Claude de seguir sent una eina segura i beneficiosa per a tothom. Anthropic també està compromesa amb discussions més àmplies sobre la seguretat de l'IA, com es destaca en iniciatives com [The Anthropic Institute](/ca/the-anthropic-institute).
Per protegir la privadesa de l'usuari, Anthropic utilitza una combinació d'eines avançades i processos automatitzats per filtrar o ofuscar dades sensibles abans que s'utilitzin per a qualsevol entrenament o anàlisi del model. La companyia afirma amb èmfasi que no ven dades d'usuari a tercers, reforçant el seu compromís amb la privadesa fins i tot amb la retenció ampliada per a dades amb opt-in. Els usuaris mantenen el control sobre les seves dades fins i tot després d'optar-hi; l'eliminació d'una conversa específica garanteix que no s'utilitzarà per a futurs entrenaments del model.
## Empoderament de l'usuari i governança de dades
Les Condicions de Consum i la Política de Privadesa actualitzades d'Anthropic subratllen un enfocament centrat en l'usuari per al desenvolupament de l'IA. En posar l'elecció de contribuir a la millora del model directament en mans de l'usuari, la companyia té com a objectiu fomentar una relació més transparent i col·laborativa. La capacitat de modificar aquestes preferències en qualsevol moment garanteix que els usuaris conservin un control continu sobre el recorregut de les seves dades.
En cas que un usuari inicialment opti per participar en l'entrenament del model però més tard decideixi canviar d'opinió i optar per no participar, Anthropic té una política clara. Tot i que les dades utilitzades en execucions d'entrenament del model prèviament completades i models ja llançats poden existir encara dins d'aquestes versions, qualsevol *nou* xat i sessió de codificació després de la decisió de no participació no s'utilitzarà per a futures formacions. La companyia es compromet a interrompre l'ús de xats i sessions de codificació emmagatzemades prèviament en qualsevol *futura* iteració d'entrenament del model un cop s'actualitzi la preferència. Això ofereix un mecanisme robust perquè els usuaris gestionin la seva configuració de privadesa de forma dinàmica.
Aquestes actualitzacions representen un pas mesurat cap a l'equilibri de l'immens potencial de la innovació d'IA basada en dades amb la importància primordial de la privadesa de l'usuari i la transparència. A mesura que els models d'IA s'integren cada vegada més a la vida diària, polítiques com aquestes són crucials per generar confiança i garantir un desenvolupament ètic.
Preguntes freqüents
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.
Manteniu-vos al dia
Rebeu les últimes notícies d'IA al correu.
