A Anthropic Lança Atualizações Chave nos Termos de Consumo e Política de Privacidade do Claude
A Anthropic, uma empresa líder em pesquisa de IA, anunciou atualizações significativas nos seus Termos de Consumo e Política de Privacidade para usuários dos seus modelos de IA Claude. Essas mudanças, com efeito a partir de 28 de agosto de 2025, foram projetadas para capacitar os usuários com maior controle sobre seus dados, ao mesmo tempo em que permitem à Anthropic desenvolver sistemas de IA mais capazes e seguros. O cerne dessas atualizações concentra-se em um mecanismo de opt-in para o uso de dados no treinamento de modelos e um período de retenção de dados estendido para aqueles que participam.
A iniciativa reflete uma tendência crescente na indústria em direção a maior transparência e autonomia do usuário no desenvolvimento da inteligência artificial. Ao permitir que os usuários escolham ativamente se suas interações contribuem para o aprendizado do Claude, a Anthropic visa fomentar um ambiente colaborativo que beneficia tanto os usuários individuais quanto o ecossistema de IA mais amplo. Essa evolução estratégica das políticas voltadas para o consumidor reforça o compromisso da empresa com o desenvolvimento responsável da IA e a confiança do usuário.
Aprimorando o Claude com Insights e Salvaguardas Orientadas pelo Usuário
A principal mudança na política atualizada da Anthropic é a introdução de uma escolha do usuário em relação à utilização de dados para aprimoramento do modelo. Usuários nos planos Free, Pro e Max do Claude, incluindo aqueles que utilizam o Claude Code de contas associadas, terão agora a opção de permitir que seus dados contribuam para o treinamento de futuros modelos do Claude. Essa participação é posicionada como um passo crucial para a construção de uma IA mais robusta e inteligente.
Optar por esse uso de dados oferece vários benefícios diretos. Segundo a Anthropic, as interações dos usuários fornecem valiosos insights do mundo real que ajudam a refinar os protocolos de segurança do modelo, tornando os sistemas de detecção de conteúdo prejudicial mais precisos e menos propensos a sinalizar conversas inócuas. Além da segurança, espera-se que os dados do usuário melhorem significativamente as capacidades centrais do Claude, como proficiência em codificação, raciocínio analítico e habilidades de resolução de problemas complexos. Esse ciclo de feedback é essencial para a evolução contínua de grandes modelos de linguagem, levando a ferramentas de IA mais refinadas e úteis para todos.
É importante notar o escopo específico dessas atualizações. Embora aplicáveis a contas de nível de consumidor, essas mudanças de política explicitamente não se estendem a serviços regidos pelos Termos Comerciais da Anthropic. Isso inclui Claude for Work, Claude for Government, Claude for Education e todo o uso de API, seja diretamente ou através de plataformas de terceiros como Amazon Bedrock ou Google Cloud’s Vertex AI. Essa distinção garante que clientes comerciais e parceiros de nível empresarial mantenham seus acordos de dados e estruturas de privacidade existentes, muitas vezes personalizados. Para usuários que utilizam serviços como Amazon Bedrock AgentCore, acordos separados permanecem em vigor.
Navegando Suas Escolhas: Opt-in e Prazos
A Anthropic está comprometida em fornecer aos usuários controle claro sobre seus dados. Tanto usuários novos quanto existentes do Claude encontrarão processos distintos para fazer suas escolhas de compartilhamento de dados. Novos usuários que se cadastrarem no Claude encontrarão a opção de selecionar sua preferência para treinamento de modelo como parte integrante do processo de integração, permitindo que definam suas configurações de privacidade desde o início.
Para usuários existentes, a Anthropic iniciou um lançamento faseado de notificações no aplicativo. Essas janelas pop-up solicitarão aos usuários que revisem os Termos de Consumo e a Política de Privacidade atualizados e decidam se permitem que seus dados sejam usados para aprimoramento do modelo. Os usuários têm um período de carência até 8 de outubro de 2025 para fazer sua seleção. Se um usuário existente optar por aceitar as novas políticas e participar (opt-in) antes desse prazo, essas mudanças entrarão em vigor imediatamente para todos os chats e sessões de codificação novos ou retomados. É crucial que os usuários façam uma escolha até a data especificada, pois o uso contínuo do Claude após 8 de outubro de 2025 exigirá uma seleção na configuração de treinamento do modelo. Isso garante que os usuários estejam ativamente envolvidos na formação de seu cenário de privacidade.
Crucialmente, o controle do usuário não é uma decisão única. A Anthropic enfatiza que as preferências podem ser ajustadas a qualquer momento através da seção dedicada de Configurações de Privacidade dentro da interface do Claude. Essa flexibilidade ressalta o compromisso da empresa com a autonomia contínua do usuário em relação aos seus dados pessoais.
Comparativo de Políticas: Uso e Retenção de Dados
Para esclarecer o impacto dessas atualizações, a tabela a seguir resume as principais diferenças entre optar por participar (opt-in) e não participar (opt-out) do uso de dados para treinamento de modelo sob os novos Termos de Consumo:
| Recurso | Optar por Treinamento de Modelo (Nova Política) | Optar por Não (Política Existente/Padrão) |
|---|---|---|
| Uso de Dados | Chats novos/retomados e sessões de codificação usados para melhoria e segurança do modelo. | Chats novos/retomados e sessões de codificação não usados para treinamento de modelo. |
| Período de Retenção de Dados | 5 anos para dados que optaram por participar. | 30 dias para todos os dados. |
| Aplica-se a | Contas Claude Free, Pro, Max e sessões de Claude Code. | Contas Claude Free, Pro, Max e sessões de Claude Code. |
| Exclusões | Termos Comerciais, API, Amazon Bedrock, serviços Google Vertex AI. | Mesmas exclusões. |
Retenção Estratégica de Dados para o Desenvolvimento de IA a Longo Prazo
Juntamente com a opção de treinamento de modelo, a Anthropic também está introduzindo um período de retenção de dados estendido para usuários que optam por participar. Se um usuário optar por permitir que seus dados sejam usados para melhoria do modelo, o período de retenção para chats e sessões de codificação novos ou retomados será estendido para cinco anos. Para usuários que não optarem por participar, o período de retenção de dados existente de 30 dias continuará a ser aplicado. Esta retenção estendida também cobre o feedback enviado sobre as respostas do Claude aos prompts.
A justificativa por trás do período de retenção de cinco anos está profundamente enraizada nas realidades do desenvolvimento avançado de IA. Grandes modelos de linguagem passam por ciclos de desenvolvimento que frequentemente se estendem por 18 a 24 meses antes do lançamento. Manter a consistência dos dados por períodos mais longos é vital para criar modelos mais estáveis e previsíveis. Dados consistentes permitem que os modelos sejam treinados e refinados de maneiras semelhantes, levando a transições e atualizações mais suaves para os usuários.
Além disso, a retenção estendida auxilia significativamente na melhoria dos classificadores internos da Anthropic – os sistemas sofisticados usados para identificar e combater uso indevido, abuso, spam e outros padrões prejudiciais. Esses mecanismos de segurança tornam-se mais eficazes ao aprender com dados coletados por durações estendidas, aprimorando a capacidade do Claude de permanecer uma ferramenta segura e benéfica para todos. A Anthropic também está comprometida com discussões mais amplas sobre segurança de IA, conforme destacado por iniciativas como The Anthropic Institute.
Para proteger a privacidade do usuário, a Anthropic emprega uma combinação de ferramentas avançadas e processos automatizados para filtrar ou ofuscar dados sensíveis antes que sejam usados para qualquer treinamento ou análise de modelo. A empresa declara enfaticamente que não vende dados de usuários a terceiros, reforçando seu compromisso com a privacidade mesmo com a retenção estendida para dados de usuários que optaram por participar. Os usuários mantêm controle sobre seus dados mesmo após a adesão; a exclusão de uma conversa específica garante que ela não será usada para futuro treinamento de modelo.
Empoderamento do Usuário e Governança de Dados
Os Termos de Consumo e a Política de Privacidade atualizados da Anthropic sublinham uma abordagem centrada no usuário para o desenvolvimento da IA. Ao colocar a escolha de contribuir para a melhoria do modelo diretamente nas mãos do usuário, a empresa visa fomentar um relacionamento mais transparente e colaborativo. A capacidade de modificar essas preferências a qualquer momento garante que os usuários mantenham controle contínuo sobre a jornada de seus dados.
Se um usuário inicialmente optar por participar do treinamento de modelo, mas depois decidir mudar de ideia e optar por não participar, a Anthropic possui uma política clara. Embora os dados usados em execuções de treinamento de modelo concluídas anteriormente e modelos já lançados ainda possam existir dentro dessas versões, quaisquer novos chats e sessões de codificação após a decisão de optar por não participar não serão usados para treinamento futuro. A empresa se compromete a descontinuar o uso de chats e sessões de codificação previamente armazenados em quaisquer futuras iterações de treinamento de modelo, uma vez que a preferência seja atualizada. Isso oferece um mecanismo robusto para os usuários gerenciarem suas configurações de privacidade dinamicamente.
Essas atualizações representam um passo ponderado em direção ao equilíbrio entre o imenso potencial da inovação em IA orientada por dados e a importância primordial da privacidade e transparência do usuário. À medida que os modelos de IA se tornam cada vez mais integrados à vida diária, políticas como estas são cruciais para construir confiança e garantir um desenvolvimento ético.
Perguntas Frequentes
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Fique Atualizado
Receba as últimas novidades de IA no seu e-mail.
