Anthropic implementa actualizaciones clave en los Términos de Consumo y la Política de Privacidad de Claude
Anthropic, una empresa líder en investigación de IA, ha anunciado importantes actualizaciones en sus Términos de Consumo y Política de Privacidad para los usuarios de sus modelos de IA Claude. Estos cambios, efectivos a partir del 28 de agosto de 2025, están diseñados para empoderar a los usuarios con un mayor control sobre sus datos, al mismo tiempo que permiten a Anthropic desarrollar sistemas de IA más capaces y seguros. El núcleo de estas actualizaciones se centra en un mecanismo de consentimiento para el uso de datos en el entrenamiento de modelos y un período de retención de datos extendido para aquellos que participen.
La medida refleja una creciente tendencia en la industria hacia una mayor transparencia y autonomía del usuario en el desarrollo de la inteligencia artificial. Al permitir que los usuarios elijan activamente si sus interacciones contribuyen al aprendizaje de Claude, Anthropic busca fomentar un entorno colaborativo que beneficie tanto a los usuarios individuales como al ecosistema de IA en general. Esta evolución estratégica de las políticas orientadas al consumidor subraya el compromiso de la empresa con el desarrollo responsable de la IA y la confianza del usuario.
Mejorando Claude con conocimientos y salvaguardias impulsados por el usuario
El cambio principal en la política actualizada de Anthropic es la introducción de una elección del usuario con respecto a la utilización de datos para la mejora del modelo. Los usuarios de los planes Free, Pro y Max de Claude, incluidos aquellos que aprovechan Claude Code de cuentas asociadas, ahora tendrán la opción de permitir que sus datos contribuyan al entrenamiento de futuros modelos de Claude. Esta participación se posiciona como un paso crucial hacia la construcción de una IA más robusta e inteligente.
Optar por este uso de datos ofrece varios beneficios directos. Según Anthropic, las interacciones de los usuarios proporcionan valiosos conocimientos del mundo real que ayudan a refinar los protocolos de seguridad del modelo, haciendo que los sistemas para detectar contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas. Más allá de la seguridad, se espera que los datos del usuario mejoren significativamente las capacidades centrales de Claude, como la competencia en codificación, el razonamiento analítico y las habilidades complejas de resolución de problemas. Este ciclo de retroalimentación es esencial para la evolución continua de los grandes modelos de lenguaje, lo que lleva a herramientas de IA más refinadas y útiles para todos.
Es importante tener en cuenta el alcance específico de estas actualizaciones. Si bien son aplicables a las cuentas de nivel de consumidor, estos cambios de política explícitamente no se extienden a los servicios regidos por los Términos Comerciales de Anthropic. Esto incluye Claude for Work, Claude for Government, Claude for Education y todo el uso de API, ya sea directamente o a través de plataformas de terceros como Amazon Bedrock o Vertex AI de Google Cloud. Esta distinción garantiza que los clientes comerciales y los socios de nivel empresarial mantengan sus acuerdos de datos y marcos de privacidad existentes, a menudo personalizados. Para los usuarios que utilizan servicios como Amazon Bedrock AgentCore, se mantienen acuerdos separados.
Navegando sus elecciones: Opt-in y plazos
Anthropic se compromete a proporcionar a los usuarios un control claro sobre sus datos. Tanto los usuarios nuevos como los existentes de Claude encontrarán procesos distintos para tomar sus decisiones de intercambio de datos. Los nuevos usuarios que se registren en Claude encontrarán la opción de seleccionar su preferencia para el entrenamiento del modelo como parte integral del proceso de incorporación, lo que les permitirá definir su configuración de privacidad desde el principio.
Para los usuarios existentes, Anthropic ha iniciado una implementación gradual de notificaciones en la aplicación. Estas ventanas emergentes pedirán a los usuarios que revisen los Términos de Consumo y la Política de Privacidad actualizados y decidan si permiten que sus datos se utilicen para mejorar el modelo. Los usuarios tienen un período de gracia hasta el 8 de octubre de 2025 para realizar su selección. Si un usuario existente decide aceptar las nuevas políticas y optar por participar antes de esta fecha límite, estos cambios entrarán en vigor inmediatamente para todos los chats y sesiones de codificación nuevos o reanudados. Es crucial que los usuarios tomen una decisión antes de la fecha especificada, ya que el uso continuado de Claude después del 8 de octubre de 2025 requerirá una selección en la configuración de entrenamiento del modelo. Esto garantiza que los usuarios participen activamente en la configuración de su panorama de privacidad.
Crucialmente, el control del usuario no es una decisión única. Anthropic enfatiza que las preferencias se pueden ajustar en cualquier momento a través de la sección dedicada de Configuración de Privacidad dentro de la interfaz de Claude. Esta flexibilidad subraya el compromiso de la empresa con la autonomía continua del usuario con respecto a sus datos personales.
Comparación de políticas: Uso y retención de datos
Para aclarar el impacto de estas actualizaciones, la siguiente tabla resume las diferencias clave entre optar por participar y no participar en el uso de datos para el entrenamiento del modelo bajo los nuevos Términos de Consumo:
| Característica | Optar por el entrenamiento del modelo (Nueva Política) | No optar (Política Existente/Predeterminada) |
|---|---|---|
| Uso de Datos | Chats y sesiones de codificación nuevos/reanudados utilizados para la mejora y seguridad del modelo. | Chats y sesiones de codificación nuevos/reanudados no utilizados para el entrenamiento del modelo. |
| Período de Retención de Datos | 5 años para los datos optados. | 30 días para todos los datos. |
| Aplica a | Cuentas Claude Free, Pro, Max y sesiones de Claude Code. | Cuentas Claude Free, Pro, Max y sesiones de Claude Code. |
| Exclusiones | Términos Comerciales, API, Amazon Bedrock, servicios Google Vertex AI. | Mismas exclusiones. |
Retención estratégica de datos para el desarrollo de IA a largo plazo
Junto con la opción de participación para el entrenamiento del modelo, Anthropic también está introduciendo un período extendido de retención de datos para los usuarios que elijan participar. Si un usuario opta por permitir el uso de sus datos para mejorar el modelo, el período de retención para chats y sesiones de codificación nuevos o reanudados se extenderá a cinco años. Para los usuarios que no opten por participar, seguirá aplicándose el período de retención de datos existente de 30 días. Esta retención extendida también cubre los comentarios enviados sobre las respuestas de Claude a las indicaciones.
La razón detrás del período de retención de cinco años está profundamente arraigada en las realidades del desarrollo avanzado de IA. Los grandes modelos de lenguaje pasan por ciclos de desarrollo que a menudo abarcan de 18 a 24 meses antes de su lanzamiento. Mantener la coherencia de los datos durante períodos más largos es vital para crear modelos más estables y predecibles. Los datos consistentes permiten que los modelos se entrenen y refinen de manera similar, lo que lleva a transiciones y actualizaciones más fluidas para los usuarios.
Además, la retención extendida ayuda significativamente a mejorar los clasificadores internos de Anthropic, los sistemas sofisticados utilizados para identificar y contrarrestar el uso indebido, el abuso, el spam y otros patrones dañinos. Estos mecanismos de seguridad se vuelven más efectivos al aprender de los datos recopilados durante períodos prolongados, mejorando la capacidad de Claude para seguir siendo una herramienta segura y beneficiosa para todos. Anthropic también está comprometida con discusiones más amplias sobre la seguridad de la IA, como lo destacan iniciativas como The Anthropic Institute.
Para proteger la privacidad del usuario, Anthropic emplea una combinación de herramientas avanzadas y procesos automatizados para filtrar u ofuscar datos sensibles antes de que se utilicen para cualquier entrenamiento o análisis del modelo. La empresa afirma enfáticamente que no vende datos de usuario a terceros, lo que refuerza su compromiso con la privacidad incluso con la retención extendida para los datos optados. Los usuarios mantienen el control sobre sus datos incluso después de optar por participar; eliminar una conversación específica asegura que no se utilizará para futuros entrenamientos del modelo.
Empoderamiento del usuario y gobernanza de datos
Los Términos de Consumo y la Política de Privacidad actualizados de Anthropic subrayan un enfoque centrado en el usuario para el desarrollo de la IA. Al poner la opción de contribuir a la mejora del modelo directamente en manos del usuario, la empresa busca fomentar una relación más transparente y colaborativa. La capacidad de modificar estas preferencias en cualquier momento garantiza que los usuarios mantengan un control continuo sobre el recorrido de sus datos.
Si un usuario inicialmente opta por el entrenamiento del modelo pero luego decide cambiar de opinión y optar por no participar, Anthropic tiene una política clara. Si bien los datos utilizados en ejecuciones de entrenamiento del modelo previamente completadas y los modelos ya lanzados pueden existir dentro de esas versiones, cualquier chat y sesión de codificación nueva después de la decisión de exclusión no se utilizará para futuros entrenamientos. La empresa se compromete a descontinuar el uso de chats y sesiones de codificación previamente almacenados en cualquier iteración de entrenamiento del modelo futura una vez que se actualice la preferencia. Esto ofrece un mecanismo robusto para que los usuarios administren su configuración de privacidad de forma dinámica.
Estas actualizaciones representan un paso mesurado hacia el equilibrio del inmenso potencial de la innovación de IA impulsada por datos con la importancia primordial de la privacidad y la transparencia del usuario. A medida que los modelos de IA se integran cada vez más en la vida diaria, políticas como estas son cruciales para generar confianza y garantizar un desarrollo ético.
Fuente original
https://www.anthropic.com/news/updates-to-our-consumer-termsPreguntas Frecuentes
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Mantente Actualizado
Recibe las últimas noticias de IA en tu correo.
