Code Velocity
Modelli AI

Anthropic Claude: Aggiornamenti ai Termini per i Consumatori e alla Politica sulla Privacy

·5 min di lettura·Anthropic·Fonte originale
Condividi
Schermata di notifica dell'aggiornamento dei Termini per i Consumatori e della Politica sulla Privacy di Anthropic Claude

Anthropic implementa importanti aggiornamenti ai Termini per i Consumatori e alla Politica sulla Privacy di Claude

Anthropic, un'azienda leader nella ricerca sull'AI, ha annunciato significativi aggiornamenti ai suoi Termini per i Consumatori e alla Politica sulla Privacy per gli utenti dei suoi modelli AI Claude. Queste modifiche, in vigore dal 28 agosto 2025, sono progettate per dare agli utenti un maggiore controllo sui propri dati, consentendo al contempo ad Anthropic di sviluppare sistemi AI più capaci e sicuri. Il fulcro di questi aggiornamenti si concentra su un meccanismo di opt-in per l'utilizzo dei dati nell'addestramento dei modelli e su un periodo di conservazione dei dati esteso per coloro che partecipano.

La mossa riflette una crescente tendenza del settore verso una maggiore trasparenza e autonomia dell'utente nello sviluppo dell'intelligenza artificiale. Consentendo agli utenti di scegliere attivamente se le loro interazioni contribuiscono all'apprendimento di Claude, Anthropic mira a promuovere un ambiente collaborativo che avvantaggi sia gli utenti individuali che l'ecosistema AI più ampio. Questa evoluzione strategica delle politiche rivolte ai consumatori sottolinea l'impegno dell'azienda per uno sviluppo responsabile dell'AI e per la fiducia degli utenti.

Migliorare Claude con intuizioni e salvaguardie guidate dall'utente

La principale modifica nella politica aggiornata di Anthropic è l'introduzione di una scelta per l'utente riguardo all'utilizzo dei dati per il miglioramento del modello. Gli utenti dei piani Free, Pro e Max di Claude, inclusi coloro che utilizzano Claude Code da account associati, avranno ora la possibilità di consentire che i loro dati contribuiscano all'addestramento dei futuri modelli Claude. Questa partecipazione è presentata come un passo cruciale verso la costruzione di un'AI più robusta e intelligente.

Scegliere di aderire a questo utilizzo dei dati offre diversi benefici diretti. Secondo Anthropic, le interazioni degli utenti forniscono preziose intuizioni dal mondo reale che aiutano a perfezionare i protocolli di sicurezza del modello, rendendo i sistemi per la rilevazione di contenuti dannosi più accurati e meno inclini a segnalare conversazioni innocue. Oltre alla sicurezza, si prevede che i dati degli utenti migliorino significativamente le capacità principali di Claude, come la competenza nella codifica, il ragionamento analitico e le capacità di risoluzione di problemi complessi. Questo ciclo di feedback è essenziale per la continua evoluzione dei grandi modelli linguistici, portando a strumenti AI più raffinati e utili per tutti.

È importante notare l'ambito specifico di questi aggiornamenti. Sebbene applicabili agli account di livello consumer, queste modifiche alla politica non si estendono esplicitamente ai servizi regolati dai Termini Commerciali di Anthropic. Ciò include Claude for Work, Claude for Government, Claude for Education e tutti gli utilizzi delle API, sia direttamente che tramite piattaforme di terze parti come Amazon Bedrock o Google Cloud’s Vertex AI. Questa distinzione garantisce che i clienti commerciali e i partner a livello aziendale mantengano i loro accordi sui dati e i framework di privacy esistenti, spesso personalizzati. Per gli utenti che utilizzano servizi come Amazon Bedrock AgentCore, rimangono in vigore accordi separati.

Anthropic si impegna a fornire agli utenti un controllo chiaro sui propri dati. Sia i nuovi utenti che quelli esistenti di Claude incontreranno processi distinti per effettuare le proprie scelte di condivisione dei dati. I nuovi utenti che si iscrivono a Claude troveranno l'opzione per selezionare la loro preferenza per l'addestramento del modello come parte integrante del processo di onboarding, consentendo loro di definire le proprie impostazioni sulla privacy fin dall'inizio.

Per gli utenti esistenti, Anthropic ha avviato un'implementazione graduale di notifiche in-app. Queste finestre pop-up inviteranno gli utenti a rivedere i Termini per i Consumatori e la Politica sulla Privacy aggiornati e a decidere se consentire che i loro dati vengano utilizzati per il miglioramento del modello. Gli utenti hanno un periodo di tolleranza fino all'8 ottobre 2025 per effettuare la loro selezione. Se un utente esistente sceglie di accettare le nuove politiche e di aderire (opt-in) prima di questa scadenza, queste modifiche avranno effetto immediato per tutte le chat e le sessioni di codifica nuove o riprese. È fondamentale che gli utenti facciano una scelta entro la data specificata, poiché l'uso continuato di Claude dopo l'8 ottobre 2025 richiederà una selezione sull'impostazione di addestramento del modello. Ciò garantisce che gli utenti siano attivamente coinvolti nel plasmare il proprio panorama della privacy.

È fondamentale sottolineare che il controllo dell'utente non è una decisione una tantum. Anthropic sottolinea che le preferenze possono essere modificate in qualsiasi momento tramite la sezione dedicata alle Impostazioni Privacy all'interno dell'interfaccia di Claude. Questa flessibilità evidenzia l'impegno dell'azienda per l'autonomia continua dell'utente riguardo ai propri dati personali.

Confronto delle politiche: Utilizzo e conservazione dei dati

Per chiarire l'impatto di questi aggiornamenti, la tabella seguente riassume le differenze principali tra l'adesione (opt-in) e la non adesione (opt-out) all'utilizzo dei dati per l'addestramento del modello secondo i nuovi Termini per i Consumatori:

CaratteristicaAdesione all'addestramento del modello (Nuova politica)Non adesione (Politica esistente/predefinita)
Utilizzo dei datiChat e sessioni di codifica nuove/riprese utilizzate per il miglioramento del modello e la sicurezza.Chat e sessioni di codifica nuove/riprese non utilizzate per l'addestramento del modello.
Periodo di conservazione dei dati5 anni per i dati con adesione.30 giorni per tutti i dati.
Si applica aAccount Claude Free, Pro, Max e sessioni Claude Code.Account Claude Free, Pro, Max e sessioni Claude Code.
EsclusioniTermini Commerciali, API, Amazon Bedrock, servizi Google Vertex AI.Stesse esclusioni.

Conservazione strategica dei dati per lo sviluppo a lungo termine dell'AI

Accanto all'opzione di adesione per l'addestramento del modello, Anthropic sta introducendo anche un periodo di conservazione dei dati esteso per gli utenti che scelgono di partecipare. Se un utente opta per consentire l'utilizzo dei propri dati per il miglioramento del modello, il periodo di conservazione per le chat e le sessioni di codifica nuove o riprese sarà esteso a cinque anni. Per gli utenti che non aderiscono, il periodo di conservazione dei dati esistente di 30 giorni continuerà ad applicarsi. Questa conservazione estesa copre anche i feedback inviati sulle risposte di Claude ai prompt.

La ragione del periodo di conservazione di cinque anni è profondamente radicata nelle realtà dello sviluppo avanzato dell'AI. I grandi modelli linguistici subiscono cicli di sviluppo che spesso si estendono da 18 a 24 mesi prima del rilascio. Mantenere la coerenza dei dati per periodi più lunghi è vitale per creare modelli più stabili e prevedibili. Dati coerenti consentono ai modelli di essere addestrati e perfezionati in modi simili, portando a transizioni e aggiornamenti più fluidi per gli utenti.

Inoltre, la conservazione estesa aiuta significativamente a migliorare i classificatori interni di Anthropic — i sofisticati sistemi utilizzati per identificare e contrastare usi impropri, abusi, spam e altri modelli dannosi. Questi meccanismi di sicurezza diventano più efficaci imparando da dati raccolti per durate estese, migliorando la capacità di Claude di rimanere uno strumento sicuro e benefico per tutti. Anthropic è anche impegnata in discussioni più ampie sulla sicurezza dell'AI, come evidenziato da iniziative come The Anthropic Institute.

Per proteggere la privacy degli utenti, Anthropic impiega una combinazione di strumenti avanzati e processi automatizzati per filtrare o offuscare i dati sensibili prima che vengano utilizzati per qualsiasi addestramento o analisi del modello. L'azienda dichiara enfaticamente di non vendere i dati degli utenti a terzi, rafforzando il suo impegno per la privacy anche con la conservazione estesa per i dati con adesione. Gli utenti mantengono il controllo sui propri dati anche dopo aver aderito; l'eliminazione di una conversazione specifica garantisce che non verrà utilizzata per futuri addestramenti del modello.

Potenziamento dell'utente e governance dei dati

I Termini per i Consumatori e la Politica sulla Privacy aggiornati di Anthropic sottolineano un approccio incentrato sull'utente allo sviluppo dell'AI. Mettendo la scelta di contribuire al miglioramento del modello direttamente nelle mani dell'utente, l'azienda mira a promuovere una relazione più trasparente e collaborativa. La possibilità di modificare queste preferenze in qualsiasi momento garantisce che gli utenti mantengano un controllo continuo sul percorso dei propri dati.

Qualora un utente inizialmente acconsenta all'addestramento del modello ma in seguito decida di cambiare idea e di annullare l'adesione (opt-out), Anthropic ha una politica chiara. Mentre i dati utilizzati in cicli di addestramento del modello precedentemente completati e i modelli già rilasciati potrebbero ancora esistere all'interno di tali versioni, tutte le nuove chat e sessioni di codifica dopo la decisione di opt-out non saranno utilizzate per futuri addestramenti. L'azienda si impegna a interrompere l'utilizzo di chat e sessioni di codifica precedentemente archiviate in eventuali future iterazioni di addestramento del modello una volta aggiornata la preferenza. Ciò offre un robusto meccanismo per gli utenti per gestire le proprie impostazioni sulla privacy in modo dinamico.

Questi aggiornamenti rappresentano un passo ponderato verso l'equilibrio tra l'immenso potenziale dell'innovazione AI guidata dai dati e l'importanza fondamentale della privacy dell'utente e della trasparenza. Poiché i modelli AI sono sempre più integrati nella vita quotidiana, politiche come queste sono cruciali per costruire fiducia e garantire uno sviluppo etico.

Domande Frequenti

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Resta aggiornato

Ricevi le ultime notizie sull'IA nella tua casella.

Condividi