Code Velocity
Modèles d'IA

Anthropic Claude : Mises à jour des conditions générales d'utilisation et de la politique de confidentialité

·5 min de lecture·Anthropic·Source originale
Partager
Écran de notification de la mise à jour des conditions générales d'utilisation et de la politique de confidentialité d'Anthropic Claude

Anthropic déploie des mises à jour clés des conditions générales d'utilisation et de la politique de confidentialité de Claude

Anthropic, une entreprise de recherche en IA de premier plan, a annoncé d'importantes mises à jour de ses conditions générales d'utilisation et de sa politique de confidentialité pour les utilisateurs de ses modèles d'IA Claude. Ces changements, effectifs à partir du 28 août 2025, visent à donner aux utilisateurs un plus grand contrôle sur leurs données tout en permettant à Anthropic de développer des systèmes d'IA plus performants et plus sûrs. Le cœur de ces mises à jour réside dans un mécanisme d'opt-in pour l'utilisation des données dans l'entraînement des modèles et une période de rétention des données étendue pour ceux qui y participent.

Cette démarche reflète une tendance croissante de l'industrie vers une plus grande transparence et une plus grande autonomie des utilisateurs dans le développement de l'intelligence artificielle. En permettant aux utilisateurs de choisir activement si leurs interactions contribuent à l'apprentissage de Claude, Anthropic vise à favoriser un environnement collaboratif qui profite à la fois aux utilisateurs individuels et à l'écosystème plus large de l'IA. Cette évolution stratégique des politiques axées sur le consommateur souligne l'engagement de l'entreprise envers un développement responsable de l'IA et la confiance des utilisateurs.

Améliorer Claude avec des informations et des garanties pilotées par l'utilisateur

Le principal changement dans la politique mise à jour d'Anthropic est l'introduction d'un choix de l'utilisateur concernant l'utilisation des données pour l'amélioration des modèles. Les utilisateurs des plans Free, Pro et Max de Claude, y compris ceux qui utilisent Claude Code à partir de comptes associés, auront désormais la possibilité d'autoriser l'utilisation de leurs données pour l'entraînement des futurs modèles Claude. Cette participation est présentée comme une étape cruciale vers la construction d'une IA plus robuste et plus intelligente.

L'adhésion à cette utilisation des données offre plusieurs avantages directs. Selon Anthropic, les interactions des utilisateurs fournissent des informations précieuses issues du monde réel qui aident à affiner les protocoles de sécurité des modèles, rendant les systèmes de détection de contenu nuisible plus précis et moins sujets à signaler des conversations inoffensives. Au-delà de la sécurité, les données des utilisateurs devraient améliorer considérablement les capacités fondamentales de Claude, telles que la maîtrise du codage, le raisonnement analytique et les compétences complexes en résolution de problèmes. Cette boucle de rétroaction est essentielle pour l'évolution continue des grands modèles linguistiques, conduisant à des outils d'IA plus raffinés et plus utiles pour tous.

Il est important de noter la portée spécifique de ces mises à jour. Bien qu'applicables aux comptes de niveau grand public, ces modifications de politique ne s'étendent pas explicitement aux services régis par les conditions commerciales d'Anthropic. Cela inclut Claude for Work, Claude for Government, Claude for Education, et toutes les utilisations de l'API, que ce soit directement ou via des plateformes tierces comme Amazon Bedrock ou Google Cloud’s Vertex AI. Cette distinction garantit que les clients commerciaux et les partenaires de niveau entreprise maintiennent leurs accords de données et leurs cadres de confidentialité existants, souvent personnalisés. Pour les utilisateurs utilisant des services comme Amazon Bedrock AgentCore, des accords distincts restent en place.

Gérer vos choix : Opt-in et échéances

Anthropic s'engage à offrir aux utilisateurs un contrôle clair sur leurs données. Les utilisateurs de Claude, qu'ils soient nouveaux ou existants, rencontreront des processus distincts pour faire leurs choix de partage de données. Les nouveaux utilisateurs s'inscrivant à Claude trouveront l'option de sélectionner leur préférence pour l'entraînement des modèles comme partie intégrante du processus d'intégration, leur permettant de définir leurs paramètres de confidentialité dès le départ.

Pour les utilisateurs existants, Anthropic a initié un déploiement progressif de notifications intégrées à l'application. Ces fenêtres contextuelles inviteront les utilisateurs à examiner les conditions générales d'utilisation et la politique de confidentialité mises à jour et à décider d'autoriser ou non l'utilisation de leurs données pour l'amélioration des modèles. Les utilisateurs disposent d'un délai de grâce jusqu'au 8 octobre 2025 pour faire leur sélection. Si un utilisateur existant choisit d'accepter les nouvelles politiques et d'activer l'option avant cette date limite, ces changements prendront effet immédiatement pour toutes les nouvelles discussions ou sessions de codage reprises. Il est crucial pour les utilisateurs de faire un choix avant la date spécifiée, car l'utilisation continue de Claude après le 8 octobre 2025 nécessitera une sélection concernant le paramètre d'entraînement des modèles. Cela garantit que les utilisateurs sont activement engagés dans la définition de leur paysage de confidentialité.

Crucialement, le contrôle de l'utilisateur n'est pas une décision unique. Anthropic souligne que les préférences peuvent être ajustées à tout moment via la section Paramètres de confidentialité dédiée dans l'interface Claude. Cette flexibilité souligne l'engagement de l'entreprise envers l'autonomie continue de l'utilisateur concernant ses données personnelles.

Comparaison des politiques : Utilisation et rétention des données

Pour clarifier l'impact de ces mises à jour, le tableau suivant résume les principales différences entre l'activation et la désactivation de l'utilisation des données pour l'entraînement des modèles selon les nouvelles conditions générales d'utilisation :

CaractéristiqueOption d'activation pour l'entraînement du modèle (Nouvelle politique)Option de désactivation (Politique existante/par défaut)
Utilisation des donnéesNouveaux/conversations et sessions de codage reprises utilisées pour l'amélioration et la sécurité du modèle.Nouveaux/conversations et sessions de codage reprises non utilisées pour l'entraînement du modèle.
Période de rétention des données5 ans pour les données opt-in.30 jours pour toutes les données.
S'applique àComptes Claude Free, Pro, Max et sessions Claude Code.Comptes Claude Free, Pro, Max et sessions Claude Code.
ExclusionsConditions commerciales, API, Amazon Bedrock, services Google Vertex AI.Mêmes exclusions.

Rétention stratégique des données pour le développement à long terme de l'IA

Parallèlement à l'option d'activation pour l'entraînement des modèles, Anthropic introduit également une période de rétention des données étendue pour les utilisateurs qui choisissent de participer. Si un utilisateur choisit d'autoriser l'utilisation de ses données pour l'amélioration des modèles, la période de rétention pour les nouvelles conversations ou les sessions de codage reprises sera étendue à cinq ans. Pour les utilisateurs qui ne s'inscrivent pas, la période de rétention des données existante de 30 jours continuera de s'appliquer. Cette rétention prolongée couvre également les commentaires soumis concernant les réponses de Claude aux invites.

La justification de la période de rétention de cinq ans est profondément ancrée dans les réalités du développement avancé de l'IA. Les grands modèles linguistiques subissent des cycles de développement qui s'étendent souvent de 18 à 24 mois avant leur publication. Le maintien de la cohérence des données sur de plus longues périodes est essentiel pour créer des modèles plus stables et prévisibles. Des données cohérentes permettent d'entraîner et d'affiner les modèles de manière similaire, ce qui conduit à des transitions et des mises à niveau plus fluides pour les utilisateurs.

De plus, la rétention prolongée contribue de manière significative à l'amélioration des classificateurs internes d'Anthropic – les systèmes sophistiqués utilisés pour identifier et contrer les usages abusifs, les spams et autres modèles nuisibles. Ces mécanismes de sécurité deviennent plus efficaces en apprenant des données collectées sur des durées étendues, améliorant la capacité de Claude à rester un outil sûr et bénéfique pour tous. Anthropic est également engagé dans des discussions plus larges sur la sécurité de l'IA, comme le soulignent des initiatives comme The Anthropic Institute.

Pour protéger la confidentialité des utilisateurs, Anthropic utilise une combinaison d'outils avancés et de processus automatisés pour filtrer ou masquer les données sensibles avant qu'elles ne soient utilisées pour l'entraînement ou l'analyse des modèles. L'entreprise déclare catégoriquement qu'elle ne vend pas les données des utilisateurs à des tiers, renforçant ainsi son engagement envers la confidentialité, même avec la rétention prolongée pour les données ayant fait l'objet d'un opt-in. Les utilisateurs conservent le contrôle de leurs données même après avoir opté pour cette option ; la suppression d'une conversation spécifique garantit qu'elle ne sera pas utilisée pour l'entraînement futur des modèles.

Autonomisation de l'utilisateur et gouvernance des données

Les conditions générales d'utilisation et la politique de confidentialité mises à jour d'Anthropic soulignent une approche centrée sur l'utilisateur du développement de l'IA. En confiant directement à l'utilisateur le choix de contribuer à l'amélioration des modèles, l'entreprise vise à favoriser une relation plus transparente et collaborative. La possibilité de modifier ces préférences à tout moment garantit que les utilisateurs conservent un contrôle continu sur le parcours de leurs données.

Si un utilisateur s'inscrit initialement pour l'entraînement du modèle mais décide plus tard de changer d'avis et de se désinscrire, Anthropic a une politique claire. Bien que les données utilisées dans les exécutions d'entraînement de modèle précédemment terminées et les modèles déjà publiés puissent toujours exister dans ces versions, toutes les nouvelles discussions et sessions de codage après la décision de désinscription ne seront pas utilisées pour l'entraînement futur. L'entreprise s'engage à interrompre l'utilisation des discussions et sessions de codage précédemment stockées dans toutes les futures itérations d'entraînement de modèle une fois que la préférence est mise à jour. Cela offre un mécanisme robuste permettant aux utilisateurs de gérer leurs paramètres de confidentialité de manière dynamique.

Ces mises à jour représentent une étape mesurée vers l'équilibre entre l'immense potentiel de l'innovation en IA axée sur les données et l'importance primordiale de la confidentialité des utilisateurs et de la transparence. Alors que les modèles d'IA s'intègrent de plus en plus dans la vie quotidienne, des politiques comme celles-ci sont cruciales pour établir la confiance et garantir un développement éthique.

Questions Fréquentes

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Restez informé

Recevez les dernières actualités IA dans votre boîte mail.

Partager