Code Velocity
AI Modellek

Anthropic Claude: Fogyasztói Feltételek és Adatvédelmi Irányelvek Frissítései

·5 perc olvasás·Anthropic·Eredeti forrás
Megosztás
Anthropic Claude fogyasztói feltételek és adatvédelmi irányelvek frissítéséről szóló értesítő képernyő

Az Anthropic kulcsfontosságú frissítéseket vezet be a Claude fogyasztói feltételeihez és adatvédelmi irányelveihez

Az Anthropic, egy vezető AI kutató vállalat, jelentős frissítéseket jelentett be a Claude AI modelljeinek felhasználói számára szóló fogyasztói feltételeihez és adatvédelmi irányelveihez. Ezek a változtatások, amelyek 2025. augusztus 28-án lépnek hatályba, arra irányulnak, hogy a felhasználók nagyobb ellenőrzést kapjanak adataik felett, miközben lehetővé teszik az Anthropic számára, hogy hatékonyabb és biztonságosabb AI rendszereket fejlesszen. Ezen frissítések lényege az adatok modellképzésben való felhasználására vonatkozó hozzájárulási mechanizmus és a hosszabb adatmegőrzési idő az arra résztvevők számára.

Ez a lépés az iparágban egyre erősödő trendet tükrözi, amely a nagyobb átláthatóságra és felhasználói cselekvési szabadságra törekszik a mesterséges intelligencia fejlesztése során. Azzal, hogy a felhasználók aktívan dönthetnek arról, hozzájárulnak-e interakcióik a Claude tanulásához, az Anthropic célja egy együttműködő környezet kialakítása, amely mind az egyéni felhasználók, mind a tágabb AI ökoszisztéma számára előnyös. A fogyasztókra vonatkozó szabályzatok e stratégiai fejlődése aláhúzza a vállalat elkötelezettségét a felelős AI fejlesztés és a felhasználói bizalom iránt.

A Claude fejlesztése felhasználó által vezérelt betekintésekkel és védelmi intézkedésekkel

Az Anthropic frissített irányelvének elsődleges változása a felhasználói döntés bevezetése az adatfelhasználásra vonatkozóan a modellfejlesztés céljából. A Claude Free, Pro és Max csomagjainak felhasználói, beleértve azokat is, akik a Claude Code-ot használják a kapcsolódó fiókokból, mostantól választhatják, hogy adataik hozzájáruljanak a jövőbeni Claude modellek képzéséhez. Ez a részvétel kulcsfontosságú lépésként van pozícionálva a robusztusabb és intelligensebb AI létrehozása felé.

Az adathasználatba való beleegyezés számos közvetlen előnnyel jár. Az Anthropic szerint a felhasználói interakciók értékes valós idejű betekintést nyújtanak, amelyek segítenek finomítani a modell biztonsági protokolljait, pontosabbá téve a káros tartalmak észlelésére szolgáló rendszereket, és kevésbé hajlamosakká a ártalmatlan beszélgetések megjelölésére. A biztonságon túl a felhasználói adatok várhatóan jelentősen javítják a Claude alapvető képességeit, például a kódolási jártasságot, az analitikus érvelést és az összetett problémamegoldó képességeket. Ez a visszacsatolási hurok elengedhetetlen a nagy nyelvi modellek folyamatos fejlődéséhez, ami kifinomultabb és hasznosabb AI eszközökhöz vezet mindenki számára.

Fontos megjegyezni e frissítések specifikus hatókörét. Bár a fogyasztói szintű fiókokra vonatkoznak, ezek a szabályzatváltozások kifejezetten nem terjednek ki az Anthropic Kereskedelmi Feltételei által szabályozott szolgáltatásokra. Ez magában foglalja a Claude for Work, a Claude for Government, a Claude for Education és minden API használatot, akár közvetlenül, akár harmadik fél platformjain keresztül, mint például az Amazon Bedrock vagy a Google Cloud Vertex AI-je. Ez a megkülönböztetés biztosítja, hogy a kereskedelmi ügyfelek és vállalati szintű partnerek fenntartsák meglévő, gyakran egyedi adatmegállapodásaikat és adatvédelmi keretrendszereiket. Azok a felhasználók, akik olyan szolgáltatásokat használnak, mint az Amazon Bedrock AgentCore, továbbra is külön megállapodások hatálya alá tartoznak.

Az Anthropic elkötelezett amellett, hogy a felhasználók számára világos ellenőrzést biztosítson adataik felett. Mind az új, mind a meglévő Claude felhasználók különálló folyamatokkal találkoznak adatmegosztási döntéseik meghozatalához. Az új felhasználók, akik regisztrálnak a Claude-ra, a modellképzésre vonatkozó preferenciájuk kiválasztásának lehetőségét a bevezető folyamat szerves részeként találják meg, lehetővé téve számukra, hogy kezdettől fogva meghatározzák adatvédelmi beállításaikat.

A meglévő felhasználók számára az Anthropic fokozatosan vezette be az alkalmazáson belüli értesítéseket. Ezek az előugró ablakok felkérik a felhasználókat, hogy tekintsék át a frissített fogyasztói feltételeket és adatvédelmi irányelveket, és döntsenek arról, engedélyezik-e adataik felhasználását a modellfejlesztéshez. A felhasználóknak 2025. október 8-ig van türelmi idejük a választás meghozatalára. Ha egy meglévő felhasználó úgy dönt, hogy elfogadja az új irányelveket és hozzájárul a határidő előtt, ezek a változások azonnal hatályba lépnek minden új vagy újraindított csevegés és kódolási munkamenet esetében. Kulcsfontosságú, hogy a felhasználók a megadott dátumig meghozzák döntésüket, mivel a Claude 2025. október 8. utáni további használatához kötelező lesz a modellképzési beállítás kiválasztása. Ez biztosítja, hogy a felhasználók aktívan részt vegyenek adatvédelmi környezetük alakításában.

Alapvető fontosságú, hogy a felhasználói ellenőrzés nem egyszeri döntés. Az Anthropic hangsúlyozza, hogy a beállítások bármikor módosíthatók a Claude felületén található dedikált Adatvédelmi Beállítások szakaszban. Ez a rugalmasság aláhúzza a vállalat elkötelezettségét a felhasználók személyes adataik feletti folyamatos autonómiája iránt.

Irányelv összehasonlítás: Adathasználat és adatmegőrzés

Az alábbi táblázat összefoglalja a hozzájárulás és a kikapcsolás közötti főbb különbségeket a modellképzésre vonatkozó adatfelhasználás tekintetében az új fogyasztói feltételek szerint, hogy tisztázza a frissítések hatását:

FunkcióHozzájárulás a modellképzéshez (Új irányelv)Kikapcsolás (Meglévő/Alapértelmezett irányelv)
AdathasználatÚj/folytatott csevegések és kódolási munkamenetek a modellfejlesztés és biztonság céljából felhasználva.Új/folytatott csevegések és kódolási munkamenetek nem kerülnek felhasználásra modellképzésre.
Adatmegőrzési időszak5 év a hozzájárult adatokra.30 nap minden adatra.
AlkalmazhatóClaude Free, Pro, Max fiókokra és Claude Code munkamenetekre.Claude Free, Pro, Max fiókokra és Claude Code munkamenetekre.
KizárásokKereskedelmi Feltételek, API, Amazon Bedrock, Google Vertex AI szolgáltatások.Ugyanezen kizárások.

Stratégiai adatmegőrzés a hosszú távú AI fejlesztéshez

A modellképzésre vonatkozó hozzájárulás mellett az Anthropic hosszabb adatmegőrzési időszakot is bevezet azoknak a felhasználóknak, akik úgy döntenek, hogy részt vesznek. Ha egy felhasználó hozzájárul adatai felhasználásához a modellfejlesztéshez, az új vagy újraindított csevegések és kódolási munkamenetek megőrzési ideje öt évre meghosszabbodik. Azoknak a felhasználóknak, akik nem járulnak hozzá, a meglévő 30 napos adatmegőrzési időszak továbbra is érvényes marad. Ez a meghosszabbított megőrzés kiterjed a Claude válaszaira vonatkozóan benyújtott visszajelzésekre is.

Az ötéves adatmegőrzési időszak mögött meghúzódó indoklás mélyen gyökerezik a fejlett AI fejlesztés valóságában. A nagy nyelvi modellek fejlesztési ciklusai gyakran 18-24 hónapot vesznek igénybe a kiadás előtt. Az adatok konzisztenciájának fenntartása hosszabb időn keresztül létfontosságú a stabilabb és kiszámíthatóbb modellek létrehozásához. A konzisztens adatok lehetővé teszik a modellek hasonló módon történő képzését és finomítását, ami simább átmeneteket és frissítéseket eredményez a felhasználók számára.

Továbbá, a meghosszabbított adatmegőrzés jelentősen segíti az Anthropic belső osztályozóinak – a visszaélések, spam és egyéb káros minták azonosítására és ellensúlyozására használt kifinomult rendszereknek – javítását. Ezek a biztonsági mechanizmusok hatékonyabbá válnak a hosszabb időn keresztül gyűjtött adatokból való tanulással, növelve a Claude képességét, hogy mindenki számára biztonságos és hasznos eszköz maradjon. Az Anthropic elkötelezett a szélesebb körű AI biztonsági megbeszélések iránt is, amint azt az olyan kezdeményezések is aláhúzzák, mint az Anthropic Intézet.

A felhasználói adatvédelem érdekében az Anthropic fejlett eszközök és automatizált folyamatok kombinációját alkalmazza az érzékeny adatok szűrésére vagy elhomályosítására, mielőtt azokat modellképzésre vagy elemzésre használnák, még a hozzájárult adatok meghosszabbított megőrzése esetén is. A vállalat nyomatékosan kijelenti, hogy nem értékesíti a felhasználói adatokat harmadik feleknek, megerősítve ezzel az adatvédelem iránti elkötelezettségét még a hozzájárult adatok meghosszabbított megőrzése mellett is. A felhasználók megőrzik az ellenőrzést adataik felett még a hozzájárulás után is; egy adott beszélgetés törlése biztosítja, hogy az ne kerüljön felhasználásra a jövőbeni modellképzéshez.

Felhasználói felhatalmazás és adatkezelés

Az Anthropic frissített fogyasztói feltételei és adatvédelmi irányelvei a felhasználóközpontú megközelítést hangsúlyozzák az AI fejlesztésében. Azzal, hogy a modellfejlesztéshez való hozzájárulás választási lehetőségét közvetlenül a felhasználók kezébe adja, a vállalat célja egy átláthatóbb és együttműködőbb kapcsolat elősegítése. Az a képesség, hogy ezeket a preferenciákat bármikor módosítani lehet, biztosítja, hogy a felhasználók folyamatosan ellenőrizzék adataik útját.

Ha egy felhasználó kezdetben hozzájárul a modellképzéshez, de később úgy dönt, hogy meggondolja magát és kikapcsolja ezt a lehetőséget, az Anthropic világos irányelvvel rendelkezik. Bár a korábban befejezett modellképzési futtatásokban és már kiadott modellekben felhasznált adatok továbbra is létezhetnek ezekben a verziókban, a kikapcsolási döntés utáni új csevegések és kódolási munkamenetek nem kerülnek felhasználásra a jövőbeni képzéshez. A vállalat kötelezettséget vállal arra, hogy amint a preferenciát frissítik, leállítja a korábban tárolt csevegések és kódolási munkamenetek felhasználását bármilyen jövőbeni modellképzési iterációban. Ez egy robusztus mechanizmust kínál a felhasználók számára adatvédelmi beállításaik dinamikus kezelésére.

Ezek a frissítések egy megfontolt lépést jelentenek az adatvezérelt AI innováció hatalmas potenciáljának és a felhasználói adatvédelem, valamint az átláthatóság kiemelkedő fontosságának egyensúlyozása felé. Mivel az AI modellek egyre inkább beépülnek a mindennapi életbe, az ehhez hasonló irányelvek kulcsfontosságúak a bizalom építéséhez és az etikus fejlesztés biztosításához.

Gyakran ismételt kérdések

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

Maradjon naprakész

Kapja meg a legfrissebb AI híreket e-mailben.

Megosztás