Anthropic déploie des mises à jour clés des conditions générales d'utilisation et de la politique de confidentialité de Claude
Anthropic, une entreprise de recherche en IA de premier plan, a annoncé d'importantes mises à jour de ses conditions générales d'utilisation et de sa politique de confidentialité pour les utilisateurs de ses modèles d'IA Claude. Ces changements, effectifs à partir du 28 août 2025, visent à donner aux utilisateurs un plus grand contrôle sur leurs données tout en permettant à Anthropic de développer des systèmes d'IA plus performants et plus sûrs. Le cœur de ces mises à jour réside dans un mécanisme d'opt-in pour l'utilisation des données dans l'entraînement des modèles et une période de rétention des données étendue pour ceux qui y participent.
Cette démarche reflète une tendance croissante de l'industrie vers une plus grande transparence et une plus grande autonomie des utilisateurs dans le développement de l'intelligence artificielle. En permettant aux utilisateurs de choisir activement si leurs interactions contribuent à l'apprentissage de Claude, Anthropic vise à favoriser un environnement collaboratif qui profite à la fois aux utilisateurs individuels et à l'écosystème plus large de l'IA. Cette évolution stratégique des politiques axées sur le consommateur souligne l'engagement de l'entreprise envers un développement responsable de l'IA et la confiance des utilisateurs.
Améliorer Claude avec des informations et des garanties pilotées par l'utilisateur
Le principal changement dans la politique mise à jour d'Anthropic est l'introduction d'un choix de l'utilisateur concernant l'utilisation des données pour l'amélioration des modèles. Les utilisateurs des plans Free, Pro et Max de Claude, y compris ceux qui utilisent Claude Code à partir de comptes associés, auront désormais la possibilité d'autoriser l'utilisation de leurs données pour l'entraînement des futurs modèles Claude. Cette participation est présentée comme une étape cruciale vers la construction d'une IA plus robuste et plus intelligente.
L'adhésion à cette utilisation des données offre plusieurs avantages directs. Selon Anthropic, les interactions des utilisateurs fournissent des informations précieuses issues du monde réel qui aident à affiner les protocoles de sécurité des modèles, rendant les systèmes de détection de contenu nuisible plus précis et moins sujets à signaler des conversations inoffensives. Au-delà de la sécurité, les données des utilisateurs devraient améliorer considérablement les capacités fondamentales de Claude, telles que la maîtrise du codage, le raisonnement analytique et les compétences complexes en résolution de problèmes. Cette boucle de rétroaction est essentielle pour l'évolution continue des grands modèles linguistiques, conduisant à des outils d'IA plus raffinés et plus utiles pour tous.
Il est important de noter la portée spécifique de ces mises à jour. Bien qu'applicables aux comptes de niveau grand public, ces modifications de politique ne s'étendent pas explicitement aux services régis par les conditions commerciales d'Anthropic. Cela inclut Claude for Work, Claude for Government, Claude for Education, et toutes les utilisations de l'API, que ce soit directement ou via des plateformes tierces comme Amazon Bedrock ou Google Cloud’s Vertex AI. Cette distinction garantit que les clients commerciaux et les partenaires de niveau entreprise maintiennent leurs accords de données et leurs cadres de confidentialité existants, souvent personnalisés. Pour les utilisateurs utilisant des services comme Amazon Bedrock AgentCore, des accords distincts restent en place.
Gérer vos choix : Opt-in et échéances
Anthropic s'engage à offrir aux utilisateurs un contrôle clair sur leurs données. Les utilisateurs de Claude, qu'ils soient nouveaux ou existants, rencontreront des processus distincts pour faire leurs choix de partage de données. Les nouveaux utilisateurs s'inscrivant à Claude trouveront l'option de sélectionner leur préférence pour l'entraînement des modèles comme partie intégrante du processus d'intégration, leur permettant de définir leurs paramètres de confidentialité dès le départ.
Pour les utilisateurs existants, Anthropic a initié un déploiement progressif de notifications intégrées à l'application. Ces fenêtres contextuelles inviteront les utilisateurs à examiner les conditions générales d'utilisation et la politique de confidentialité mises à jour et à décider d'autoriser ou non l'utilisation de leurs données pour l'amélioration des modèles. Les utilisateurs disposent d'un délai de grâce jusqu'au 8 octobre 2025 pour faire leur sélection. Si un utilisateur existant choisit d'accepter les nouvelles politiques et d'activer l'option avant cette date limite, ces changements prendront effet immédiatement pour toutes les nouvelles discussions ou sessions de codage reprises. Il est crucial pour les utilisateurs de faire un choix avant la date spécifiée, car l'utilisation continue de Claude après le 8 octobre 2025 nécessitera une sélection concernant le paramètre d'entraînement des modèles. Cela garantit que les utilisateurs sont activement engagés dans la définition de leur paysage de confidentialité.
Crucialement, le contrôle de l'utilisateur n'est pas une décision unique. Anthropic souligne que les préférences peuvent être ajustées à tout moment via la section Paramètres de confidentialité dédiée dans l'interface Claude. Cette flexibilité souligne l'engagement de l'entreprise envers l'autonomie continue de l'utilisateur concernant ses données personnelles.
Comparaison des politiques : Utilisation et rétention des données
Pour clarifier l'impact de ces mises à jour, le tableau suivant résume les principales différences entre l'activation et la désactivation de l'utilisation des données pour l'entraînement des modèles selon les nouvelles conditions générales d'utilisation :
| Caractéristique | Option d'activation pour l'entraînement du modèle (Nouvelle politique) | Option de désactivation (Politique existante/par défaut) |
|---|---|---|
| Utilisation des données | Nouveaux/conversations et sessions de codage reprises utilisées pour l'amélioration et la sécurité du modèle. | Nouveaux/conversations et sessions de codage reprises non utilisées pour l'entraînement du modèle. |
| Période de rétention des données | 5 ans pour les données opt-in. | 30 jours pour toutes les données. |
| S'applique à | Comptes Claude Free, Pro, Max et sessions Claude Code. | Comptes Claude Free, Pro, Max et sessions Claude Code. |
| Exclusions | Conditions commerciales, API, Amazon Bedrock, services Google Vertex AI. | Mêmes exclusions. |
Rétention stratégique des données pour le développement à long terme de l'IA
Parallèlement à l'option d'activation pour l'entraînement des modèles, Anthropic introduit également une période de rétention des données étendue pour les utilisateurs qui choisissent de participer. Si un utilisateur choisit d'autoriser l'utilisation de ses données pour l'amélioration des modèles, la période de rétention pour les nouvelles conversations ou les sessions de codage reprises sera étendue à cinq ans. Pour les utilisateurs qui ne s'inscrivent pas, la période de rétention des données existante de 30 jours continuera de s'appliquer. Cette rétention prolongée couvre également les commentaires soumis concernant les réponses de Claude aux invites.
La justification de la période de rétention de cinq ans est profondément ancrée dans les réalités du développement avancé de l'IA. Les grands modèles linguistiques subissent des cycles de développement qui s'étendent souvent de 18 à 24 mois avant leur publication. Le maintien de la cohérence des données sur de plus longues périodes est essentiel pour créer des modèles plus stables et prévisibles. Des données cohérentes permettent d'entraîner et d'affiner les modèles de manière similaire, ce qui conduit à des transitions et des mises à niveau plus fluides pour les utilisateurs.
De plus, la rétention prolongée contribue de manière significative à l'amélioration des classificateurs internes d'Anthropic – les systèmes sophistiqués utilisés pour identifier et contrer les usages abusifs, les spams et autres modèles nuisibles. Ces mécanismes de sécurité deviennent plus efficaces en apprenant des données collectées sur des durées étendues, améliorant la capacité de Claude à rester un outil sûr et bénéfique pour tous. Anthropic est également engagé dans des discussions plus larges sur la sécurité de l'IA, comme le soulignent des initiatives comme The Anthropic Institute.
Pour protéger la confidentialité des utilisateurs, Anthropic utilise une combinaison d'outils avancés et de processus automatisés pour filtrer ou masquer les données sensibles avant qu'elles ne soient utilisées pour l'entraînement ou l'analyse des modèles. L'entreprise déclare catégoriquement qu'elle ne vend pas les données des utilisateurs à des tiers, renforçant ainsi son engagement envers la confidentialité, même avec la rétention prolongée pour les données ayant fait l'objet d'un opt-in. Les utilisateurs conservent le contrôle de leurs données même après avoir opté pour cette option ; la suppression d'une conversation spécifique garantit qu'elle ne sera pas utilisée pour l'entraînement futur des modèles.
Autonomisation de l'utilisateur et gouvernance des données
Les conditions générales d'utilisation et la politique de confidentialité mises à jour d'Anthropic soulignent une approche centrée sur l'utilisateur du développement de l'IA. En confiant directement à l'utilisateur le choix de contribuer à l'amélioration des modèles, l'entreprise vise à favoriser une relation plus transparente et collaborative. La possibilité de modifier ces préférences à tout moment garantit que les utilisateurs conservent un contrôle continu sur le parcours de leurs données.
Si un utilisateur s'inscrit initialement pour l'entraînement du modèle mais décide plus tard de changer d'avis et de se désinscrire, Anthropic a une politique claire. Bien que les données utilisées dans les exécutions d'entraînement de modèle précédemment terminées et les modèles déjà publiés puissent toujours exister dans ces versions, toutes les nouvelles discussions et sessions de codage après la décision de désinscription ne seront pas utilisées pour l'entraînement futur. L'entreprise s'engage à interrompre l'utilisation des discussions et sessions de codage précédemment stockées dans toutes les futures itérations d'entraînement de modèle une fois que la préférence est mise à jour. Cela offre un mécanisme robuste permettant aux utilisateurs de gérer leurs paramètres de confidentialité de manière dynamique.
Ces mises à jour représentent une étape mesurée vers l'équilibre entre l'immense potentiel de l'innovation en IA axée sur les données et l'importance primordiale de la confidentialité des utilisateurs et de la transparence. Alors que les modèles d'IA s'intègrent de plus en plus dans la vie quotidienne, des politiques comme celles-ci sont cruciales pour établir la confiance et garantir un développement éthique.
Source originale
https://www.anthropic.com/news/updates-to-our-consumer-termsQuestions Fréquentes
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Restez informé
Recevez les dernières actualités IA dans votre boîte mail.
