Code Velocity
Modelos de IA

Anthropic Claude: Actualizaciones de los Términos de Consumo y la Política de Privacidad

·5 min de lectura·Anthropic·Fuente original
Compartir
Pantalla de notificación de actualización de los Términos de Consumo y la Política de Privacidad de Anthropic Claude

Anthropic implementa actualizaciones clave en los Términos de Consumo y la Política de Privacidad de Claude

Anthropic, una empresa líder en investigación de IA, ha anunciado importantes actualizaciones en sus Términos de Consumo y Política de Privacidad para los usuarios de sus modelos de IA Claude. Estos cambios, efectivos a partir del 28 de agosto de 2025, están diseñados para empoderar a los usuarios con un mayor control sobre sus datos, al mismo tiempo que permiten a Anthropic desarrollar sistemas de IA más capaces y seguros. El núcleo de estas actualizaciones se centra en un mecanismo de consentimiento para el uso de datos en el entrenamiento de modelos y un período de retención de datos extendido para aquellos que participen.

La medida refleja una creciente tendencia en la industria hacia una mayor transparencia y autonomía del usuario en el desarrollo de la inteligencia artificial. Al permitir que los usuarios elijan activamente si sus interacciones contribuyen al aprendizaje de Claude, Anthropic busca fomentar un entorno colaborativo que beneficie tanto a los usuarios individuales como al ecosistema de IA en general. Esta evolución estratégica de las políticas orientadas al consumidor subraya el compromiso de la empresa con el desarrollo responsable de la IA y la confianza del usuario.

Mejorando Claude con conocimientos y salvaguardias impulsados por el usuario

El cambio principal en la política actualizada de Anthropic es la introducción de una elección del usuario con respecto a la utilización de datos para la mejora del modelo. Los usuarios de los planes Free, Pro y Max de Claude, incluidos aquellos que aprovechan Claude Code de cuentas asociadas, ahora tendrán la opción de permitir que sus datos contribuyan al entrenamiento de futuros modelos de Claude. Esta participación se posiciona como un paso crucial hacia la construcción de una IA más robusta e inteligente.

Optar por este uso de datos ofrece varios beneficios directos. Según Anthropic, las interacciones de los usuarios proporcionan valiosos conocimientos del mundo real que ayudan a refinar los protocolos de seguridad del modelo, haciendo que los sistemas para detectar contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas. Más allá de la seguridad, se espera que los datos del usuario mejoren significativamente las capacidades centrales de Claude, como la competencia en codificación, el razonamiento analítico y las habilidades complejas de resolución de problemas. Este ciclo de retroalimentación es esencial para la evolución continua de los grandes modelos de lenguaje, lo que lleva a herramientas de IA más refinadas y útiles para todos.

Es importante tener en cuenta el alcance específico de estas actualizaciones. Si bien son aplicables a las cuentas de nivel de consumidor, estos cambios de política explícitamente no se extienden a los servicios regidos por los Términos Comerciales de Anthropic. Esto incluye Claude for Work, Claude for Government, Claude for Education y todo el uso de API, ya sea directamente o a través de plataformas de terceros como Amazon Bedrock o Vertex AI de Google Cloud. Esta distinción garantiza que los clientes comerciales y los socios de nivel empresarial mantengan sus acuerdos de datos y marcos de privacidad existentes, a menudo personalizados. Para los usuarios que utilizan servicios como Amazon Bedrock AgentCore, se mantienen acuerdos separados.

Anthropic se compromete a proporcionar a los usuarios un control claro sobre sus datos. Tanto los usuarios nuevos como los existentes de Claude encontrarán procesos distintos para tomar sus decisiones de intercambio de datos. Los nuevos usuarios que se registren en Claude encontrarán la opción de seleccionar su preferencia para el entrenamiento del modelo como parte integral del proceso de incorporación, lo que les permitirá definir su configuración de privacidad desde el principio.

Para los usuarios existentes, Anthropic ha iniciado una implementación gradual de notificaciones en la aplicación. Estas ventanas emergentes pedirán a los usuarios que revisen los Términos de Consumo y la Política de Privacidad actualizados y decidan si permiten que sus datos se utilicen para mejorar el modelo. Los usuarios tienen un período de gracia hasta el 8 de octubre de 2025 para realizar su selección. Si un usuario existente decide aceptar las nuevas políticas y optar por participar antes de esta fecha límite, estos cambios entrarán en vigor inmediatamente para todos los chats y sesiones de codificación nuevos o reanudados. Es crucial que los usuarios tomen una decisión antes de la fecha especificada, ya que el uso continuado de Claude después del 8 de octubre de 2025 requerirá una selección en la configuración de entrenamiento del modelo. Esto garantiza que los usuarios participen activamente en la configuración de su panorama de privacidad.

Crucialmente, el control del usuario no es una decisión única. Anthropic enfatiza que las preferencias se pueden ajustar en cualquier momento a través de la sección dedicada de Configuración de Privacidad dentro de la interfaz de Claude. Esta flexibilidad subraya el compromiso de la empresa con la autonomía continua del usuario con respecto a sus datos personales.

Comparación de políticas: Uso y retención de datos

Para aclarar el impacto de estas actualizaciones, la siguiente tabla resume las diferencias clave entre optar por participar y no participar en el uso de datos para el entrenamiento del modelo bajo los nuevos Términos de Consumo:

CaracterísticaOptar por el entrenamiento del modelo (Nueva Política)No optar (Política Existente/Predeterminada)
Uso de DatosChats y sesiones de codificación nuevos/reanudados utilizados para la mejora y seguridad del modelo.Chats y sesiones de codificación nuevos/reanudados no utilizados para el entrenamiento del modelo.
Período de Retención de Datos5 años para los datos optados.30 días para todos los datos.
Aplica aCuentas Claude Free, Pro, Max y sesiones de Claude Code.Cuentas Claude Free, Pro, Max y sesiones de Claude Code.
ExclusionesTérminos Comerciales, API, Amazon Bedrock, servicios Google Vertex AI.Mismas exclusiones.

Retención estratégica de datos para el desarrollo de IA a largo plazo

Junto con la opción de participación para el entrenamiento del modelo, Anthropic también está introduciendo un período extendido de retención de datos para los usuarios que elijan participar. Si un usuario opta por permitir el uso de sus datos para mejorar el modelo, el período de retención para chats y sesiones de codificación nuevos o reanudados se extenderá a cinco años. Para los usuarios que no opten por participar, seguirá aplicándose el período de retención de datos existente de 30 días. Esta retención extendida también cubre los comentarios enviados sobre las respuestas de Claude a las indicaciones.

La razón detrás del período de retención de cinco años está profundamente arraigada en las realidades del desarrollo avanzado de IA. Los grandes modelos de lenguaje pasan por ciclos de desarrollo que a menudo abarcan de 18 a 24 meses antes de su lanzamiento. Mantener la coherencia de los datos durante períodos más largos es vital para crear modelos más estables y predecibles. Los datos consistentes permiten que los modelos se entrenen y refinen de manera similar, lo que lleva a transiciones y actualizaciones más fluidas para los usuarios.

Además, la retención extendida ayuda significativamente a mejorar los clasificadores internos de Anthropic, los sistemas sofisticados utilizados para identificar y contrarrestar el uso indebido, el abuso, el spam y otros patrones dañinos. Estos mecanismos de seguridad se vuelven más efectivos al aprender de los datos recopilados durante períodos prolongados, mejorando la capacidad de Claude para seguir siendo una herramienta segura y beneficiosa para todos. Anthropic también está comprometida con discusiones más amplias sobre la seguridad de la IA, como lo destacan iniciativas como The Anthropic Institute.

Para proteger la privacidad del usuario, Anthropic emplea una combinación de herramientas avanzadas y procesos automatizados para filtrar u ofuscar datos sensibles antes de que se utilicen para cualquier entrenamiento o análisis del modelo. La empresa afirma enfáticamente que no vende datos de usuario a terceros, lo que refuerza su compromiso con la privacidad incluso con la retención extendida para los datos optados. Los usuarios mantienen el control sobre sus datos incluso después de optar por participar; eliminar una conversación específica asegura que no se utilizará para futuros entrenamientos del modelo.

Empoderamiento del usuario y gobernanza de datos

Los Términos de Consumo y la Política de Privacidad actualizados de Anthropic subrayan un enfoque centrado en el usuario para el desarrollo de la IA. Al poner la opción de contribuir a la mejora del modelo directamente en manos del usuario, la empresa busca fomentar una relación más transparente y colaborativa. La capacidad de modificar estas preferencias en cualquier momento garantiza que los usuarios mantengan un control continuo sobre el recorrido de sus datos.

Si un usuario inicialmente opta por el entrenamiento del modelo pero luego decide cambiar de opinión y optar por no participar, Anthropic tiene una política clara. Si bien los datos utilizados en ejecuciones de entrenamiento del modelo previamente completadas y los modelos ya lanzados pueden existir dentro de esas versiones, cualquier chat y sesión de codificación nueva después de la decisión de exclusión no se utilizará para futuros entrenamientos. La empresa se compromete a descontinuar el uso de chats y sesiones de codificación previamente almacenados en cualquier iteración de entrenamiento del modelo futura una vez que se actualice la preferencia. Esto ofrece un mecanismo robusto para que los usuarios administren su configuración de privacidad de forma dinámica.

Estas actualizaciones representan un paso mesurado hacia el equilibrio del inmenso potencial de la innovación de IA impulsada por datos con la importancia primordial de la privacidad y la transparencia del usuario. A medida que los modelos de IA se integran cada vez más en la vida diaria, políticas como estas son cruciales para generar confianza y garantizar un desarrollo ético.

Preguntas Frecuentes

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Mantente Actualizado

Recibe las últimas noticias de IA en tu correo.

Compartir