Code Velocity
Modelos de IA

Anthropic Claude: Atualizações nos Termos de Consumo e Política de Privacidade

·5 min de leitura·Anthropic·Fonte original
Compartilhar
Tela de notificação de Atualização dos Termos de Consumo e Política de Privacidade do Anthropic Claude

A Anthropic Lança Atualizações Chave nos Termos de Consumo e Política de Privacidade do Claude

A Anthropic, uma empresa líder em pesquisa de IA, anunciou atualizações significativas nos seus Termos de Consumo e Política de Privacidade para usuários dos seus modelos de IA Claude. Essas mudanças, com efeito a partir de 28 de agosto de 2025, foram projetadas para capacitar os usuários com maior controle sobre seus dados, ao mesmo tempo em que permitem à Anthropic desenvolver sistemas de IA mais capazes e seguros. O cerne dessas atualizações concentra-se em um mecanismo de opt-in para o uso de dados no treinamento de modelos e um período de retenção de dados estendido para aqueles que participam.

A iniciativa reflete uma tendência crescente na indústria em direção a maior transparência e autonomia do usuário no desenvolvimento da inteligência artificial. Ao permitir que os usuários escolham ativamente se suas interações contribuem para o aprendizado do Claude, a Anthropic visa fomentar um ambiente colaborativo que beneficia tanto os usuários individuais quanto o ecossistema de IA mais amplo. Essa evolução estratégica das políticas voltadas para o consumidor reforça o compromisso da empresa com o desenvolvimento responsável da IA e a confiança do usuário.

Aprimorando o Claude com Insights e Salvaguardas Orientadas pelo Usuário

A principal mudança na política atualizada da Anthropic é a introdução de uma escolha do usuário em relação à utilização de dados para aprimoramento do modelo. Usuários nos planos Free, Pro e Max do Claude, incluindo aqueles que utilizam o Claude Code de contas associadas, terão agora a opção de permitir que seus dados contribuam para o treinamento de futuros modelos do Claude. Essa participação é posicionada como um passo crucial para a construção de uma IA mais robusta e inteligente.

Optar por esse uso de dados oferece vários benefícios diretos. Segundo a Anthropic, as interações dos usuários fornecem valiosos insights do mundo real que ajudam a refinar os protocolos de segurança do modelo, tornando os sistemas de detecção de conteúdo prejudicial mais precisos e menos propensos a sinalizar conversas inócuas. Além da segurança, espera-se que os dados do usuário melhorem significativamente as capacidades centrais do Claude, como proficiência em codificação, raciocínio analítico e habilidades de resolução de problemas complexos. Esse ciclo de feedback é essencial para a evolução contínua de grandes modelos de linguagem, levando a ferramentas de IA mais refinadas e úteis para todos.

É importante notar o escopo específico dessas atualizações. Embora aplicáveis a contas de nível de consumidor, essas mudanças de política explicitamente não se estendem a serviços regidos pelos Termos Comerciais da Anthropic. Isso inclui Claude for Work, Claude for Government, Claude for Education e todo o uso de API, seja diretamente ou através de plataformas de terceiros como Amazon Bedrock ou Google Cloud’s Vertex AI. Essa distinção garante que clientes comerciais e parceiros de nível empresarial mantenham seus acordos de dados e estruturas de privacidade existentes, muitas vezes personalizados. Para usuários que utilizam serviços como Amazon Bedrock AgentCore, acordos separados permanecem em vigor.

A Anthropic está comprometida em fornecer aos usuários controle claro sobre seus dados. Tanto usuários novos quanto existentes do Claude encontrarão processos distintos para fazer suas escolhas de compartilhamento de dados. Novos usuários que se cadastrarem no Claude encontrarão a opção de selecionar sua preferência para treinamento de modelo como parte integrante do processo de integração, permitindo que definam suas configurações de privacidade desde o início.

Para usuários existentes, a Anthropic iniciou um lançamento faseado de notificações no aplicativo. Essas janelas pop-up solicitarão aos usuários que revisem os Termos de Consumo e a Política de Privacidade atualizados e decidam se permitem que seus dados sejam usados para aprimoramento do modelo. Os usuários têm um período de carência até 8 de outubro de 2025 para fazer sua seleção. Se um usuário existente optar por aceitar as novas políticas e participar (opt-in) antes desse prazo, essas mudanças entrarão em vigor imediatamente para todos os chats e sessões de codificação novos ou retomados. É crucial que os usuários façam uma escolha até a data especificada, pois o uso contínuo do Claude após 8 de outubro de 2025 exigirá uma seleção na configuração de treinamento do modelo. Isso garante que os usuários estejam ativamente envolvidos na formação de seu cenário de privacidade.

Crucialmente, o controle do usuário não é uma decisão única. A Anthropic enfatiza que as preferências podem ser ajustadas a qualquer momento através da seção dedicada de Configurações de Privacidade dentro da interface do Claude. Essa flexibilidade ressalta o compromisso da empresa com a autonomia contínua do usuário em relação aos seus dados pessoais.

Comparativo de Políticas: Uso e Retenção de Dados

Para esclarecer o impacto dessas atualizações, a tabela a seguir resume as principais diferenças entre optar por participar (opt-in) e não participar (opt-out) do uso de dados para treinamento de modelo sob os novos Termos de Consumo:

RecursoOptar por Treinamento de Modelo (Nova Política)Optar por Não (Política Existente/Padrão)
Uso de DadosChats novos/retomados e sessões de codificação usados para melhoria e segurança do modelo.Chats novos/retomados e sessões de codificação não usados para treinamento de modelo.
Período de Retenção de Dados5 anos para dados que optaram por participar.30 dias para todos os dados.
Aplica-se aContas Claude Free, Pro, Max e sessões de Claude Code.Contas Claude Free, Pro, Max e sessões de Claude Code.
ExclusõesTermos Comerciais, API, Amazon Bedrock, serviços Google Vertex AI.Mesmas exclusões.

Retenção Estratégica de Dados para o Desenvolvimento de IA a Longo Prazo

Juntamente com a opção de treinamento de modelo, a Anthropic também está introduzindo um período de retenção de dados estendido para usuários que optam por participar. Se um usuário optar por permitir que seus dados sejam usados para melhoria do modelo, o período de retenção para chats e sessões de codificação novos ou retomados será estendido para cinco anos. Para usuários que não optarem por participar, o período de retenção de dados existente de 30 dias continuará a ser aplicado. Esta retenção estendida também cobre o feedback enviado sobre as respostas do Claude aos prompts.

A justificativa por trás do período de retenção de cinco anos está profundamente enraizada nas realidades do desenvolvimento avançado de IA. Grandes modelos de linguagem passam por ciclos de desenvolvimento que frequentemente se estendem por 18 a 24 meses antes do lançamento. Manter a consistência dos dados por períodos mais longos é vital para criar modelos mais estáveis e previsíveis. Dados consistentes permitem que os modelos sejam treinados e refinados de maneiras semelhantes, levando a transições e atualizações mais suaves para os usuários.

Além disso, a retenção estendida auxilia significativamente na melhoria dos classificadores internos da Anthropic – os sistemas sofisticados usados para identificar e combater uso indevido, abuso, spam e outros padrões prejudiciais. Esses mecanismos de segurança tornam-se mais eficazes ao aprender com dados coletados por durações estendidas, aprimorando a capacidade do Claude de permanecer uma ferramenta segura e benéfica para todos. A Anthropic também está comprometida com discussões mais amplas sobre segurança de IA, conforme destacado por iniciativas como The Anthropic Institute.

Para proteger a privacidade do usuário, a Anthropic emprega uma combinação de ferramentas avançadas e processos automatizados para filtrar ou ofuscar dados sensíveis antes que sejam usados para qualquer treinamento ou análise de modelo. A empresa declara enfaticamente que não vende dados de usuários a terceiros, reforçando seu compromisso com a privacidade mesmo com a retenção estendida para dados de usuários que optaram por participar. Os usuários mantêm controle sobre seus dados mesmo após a adesão; a exclusão de uma conversa específica garante que ela não será usada para futuro treinamento de modelo.

Empoderamento do Usuário e Governança de Dados

Os Termos de Consumo e a Política de Privacidade atualizados da Anthropic sublinham uma abordagem centrada no usuário para o desenvolvimento da IA. Ao colocar a escolha de contribuir para a melhoria do modelo diretamente nas mãos do usuário, a empresa visa fomentar um relacionamento mais transparente e colaborativo. A capacidade de modificar essas preferências a qualquer momento garante que os usuários mantenham controle contínuo sobre a jornada de seus dados.

Se um usuário inicialmente optar por participar do treinamento de modelo, mas depois decidir mudar de ideia e optar por não participar, a Anthropic possui uma política clara. Embora os dados usados em execuções de treinamento de modelo concluídas anteriormente e modelos já lançados ainda possam existir dentro dessas versões, quaisquer novos chats e sessões de codificação após a decisão de optar por não participar não serão usados para treinamento futuro. A empresa se compromete a descontinuar o uso de chats e sessões de codificação previamente armazenados em quaisquer futuras iterações de treinamento de modelo, uma vez que a preferência seja atualizada. Isso oferece um mecanismo robusto para os usuários gerenciarem suas configurações de privacidade dinamicamente.

Essas atualizações representam um passo ponderado em direção ao equilíbrio entre o imenso potencial da inovação em IA orientada por dados e a importância primordial da privacidade e transparência do usuário. À medida que os modelos de IA se tornam cada vez mais integrados à vida diária, políticas como estas são cruciais para construir confiança e garantir um desenvolvimento ético.

Perguntas Frequentes

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Fique Atualizado

Receba as últimas novidades de IA no seu e-mail.

Compartilhar