Anthropic Publikon Përditësime Kyçe të Kushteve të Konsumatorit dhe Politikës së Privatësisë së Claude
Anthropic, një kompani lidere e kërkimit në AI, ka njoftuar përditësime thelbësore të Kushteve të Konsumatorit dhe Politikës së Privatësisë për përdoruesit e modeleve të saj AI Claude. Këto ndryshime, të cilat hyjnë në fuqi më 28 Gusht 2025, janë krijuar për t'u ofruar përdoruesve një kontroll më të madh mbi të dhënat e tyre, duke i mundësuar njëkohësisht Anthropic të zhvillojë sisteme AI më të afta dhe më të sigurta. Thelbi i këtyre përditësimeve përqendrohet në një mekanizëm 'opt-in' për përdorimin e të dhënave në trajnimin e modelit dhe një periudhë të zgjatur ruajtjeje të të dhënave për ata që marrin pjesë.
Ky veprim pasqyron një trend në rritje të industrisë drejt një transparence më të madhe dhe agjencisë së përdoruesit në zhvillimin e inteligjencës artificiale. Duke i lejuar përdoruesit të zgjedhin në mënyrë aktive nëse ndërveprimet e tyre kontribuojnë në mësimin e Claude, Anthropic synon të nxisë një mjedis bashkëpunues që përfiton si përdoruesit individualë ashtu edhe ekosistemin më të gjerë të AI. Ky evolucion strategjik i politikave të drejtuara drejt konsumatorit thekson angazhimin e kompanisë ndaj zhvillimit të përgjegjshëm të AI dhe besimit të përdoruesit.
Përmirësimi i Claude me Njohuri dhe Mbrojtje të Drejtuara nga Përdoruesi
Ndryshimi kryesor në politikën e përditësuar të Anthropic është prezantimi i një zgjedhjeje të përdoruesit në lidhje me përdorimin e të dhënave për përmirësimin e modelit. Përdoruesit në planet Falas, Pro dhe Max të Claude, duke përfshirë ata që shfrytëzojnë Kodin e Claude nga llogaritë e lidhura, tani do të kenë mundësinë të lejojnë që të dhënat e tyre të kontribuojnë në trajnimin e modeleve të ardhshme të Claude. Kjo pjesëmarrje pozicionohet si një hap thelbësor drejt ndërtimit të një AI më të fortë dhe më inteligjente.
Pranimi (opt-in) i këtij përdorimi të të dhënave ofron disa përfitime të drejtpërdrejta. Sipas Anthropic, ndërveprimet e përdoruesve ofrojnë njohuri të vlefshme të botës reale që ndihmojnë në rafinimin e protokolleve të sigurisë së modelit, duke i bërë sistemet për zbulimin e përmbajtjes së dëmshme më të sakta dhe më pak të prirura ndaj shënimit të bisedave të padëmshme. Përtej sigurisë, të dhënat e përdoruesve pritet të përmirësojnë ndjeshëm aftësitë thelbësore të Claude, si p.sh. aftësia e kodimit, arsyetimi analitik dhe aftësitë komplekse të zgjidhjes së problemeve. Ky qark i reagimit është thelbësor për evolucionin e vazhdueshëm të modeleve të mëdha gjuhësore, duke çuar në mjete AI më të rafinuara dhe të dobishme për të gjithë.
Është e rëndësishme të theksohet fusha specifike e këtyre përditësimeve. Ndërsa aplikohen për llogaritë e nivelit të konsumatorit, këto ndryshime të politikave nuk shtrihen shprehimisht në shërbimet e qeverisura nga Kushtet Komerciale të Anthropic. Kjo përfshin Claude for Work, Claude for Government, Claude for Education dhe të gjitha përdorimet e API-së, qoftë drejtpërdrejt ose nëpërmjet platformave të palëve të treta si Amazon Bedrock apo Vertex AI të Google Cloud. Ky dallim siguron që klientët komercialë dhe partnerët në nivel ndërmarrjeje të ruajnë marrëveshjet e tyre ekzistuese, shpesh të personalizuara, të të dhënave dhe kornizat e privatësisë. Për përdoruesit që shfrytëzojnë shërbime si Amazon Bedrock AgentCore, marrëveshje të veçanta mbeten në fuqi.
Lundrimi i Zgjedhjeve Tuaja: Opt-in dhe Afatet
Anthropic është e përkushtuar t'u ofrojë përdoruesve kontroll të qartë mbi të dhënat e tyre. Si përdoruesit e rinj ashtu edhe ata ekzistues të Claude do të ndeshen me procese të ndryshme për të bërë zgjedhjet e tyre për ndarjen e të dhënave. Përdoruesit e rinj që regjistrohen për Claude do të gjejnë opsionin për të zgjedhur preferencën e tyre për trajnimin e modelit si pjesë integrale e procesit të regjistrimit, duke u lejuar atyre të përcaktojnë cilësimet e tyre të privatësisë që në fillim.
Për përdoruesit ekzistues, Anthropic ka nisur një shpërndarje të shkallëzuar të njoftimeve brenda aplikacionit. Këto dritare kërcyese (pop-up) do t'u kërkojnë përdoruesve të rishikojnë Kushtet e Konsumatorit dhe Politikën e Privatësisë të përditësuara dhe të vendosin nëse do të lejojnë që të dhënat e tyre të përdoren për përmirësimin e modelit. Përdoruesit kanë një periudhë grace deri më 8 Tetor 2025 për të bërë zgjedhjen e tyre. Nëse një përdorues ekzistues zgjedh të pranojë politikat e reja dhe të zgjedhë 'opt-in' para këtij afati, këto ndryshime do të hyjnë në fuqi menjëherë për të gjitha bisedat dhe sesionet e reja ose të rifilluara të kodimit. Është thelbësore që përdoruesit të bëjnë një zgjedhje deri në datën e specifikuar, pasi përdorimi i vazhdueshëm i Claude pas 8 Tetorit 2025 do të kërkojë një zgjedhje në cilësimin e trajnimit të modelit. Kjo siguron që përdoruesit të jenë të angazhuar në mënyrë aktive në formësimin e peizazhit të tyre të privatësisë.
Vendimtare, kontrolli i përdoruesit nuk është një vendim i njëhershëm. Anthropic thekson se preferencat mund të rregullohen në çdo kohë përmes seksionit të dedikuar të Cilësimeve të Privatësisë brenda ndërfaqes së Claude. Kjo fleksibilitet thekson angazhimin e kompanisë ndaj autonomisë së vazhdueshme të përdoruesit në lidhje me të dhënat e tyre personale.
Krahasimi i Politikave: Përdorimi dhe Ruajtja e të Dhënave
Për të sqaruar ndikimin e këtyre përditësimeve, tabela e mëposhtme përmbledh ndryshimet kryesore midis zgjedhjes 'opt-in' dhe 'opt-out' për përdorimin e të dhënave për trajnimin e modelit sipas Kushteve të reja të Konsumatorit:
| Karakteristika | Opt-in për Trajnimin e Modelit (Politika e Re) | Opt-out (Politika Ekzistuese/Parazgjedhur) |
|---|---|---|
| Përdorimi i të Dhënave | Bisedat dhe sesionet e reja/rifilluara të kodimit përdoren për përmirësimin e modelit dhe sigurinë. | Bisedat dhe sesionet e reja/rifilluara të kodimit nuk përdoren për trajnimin e modelit. |
| Periudha e Ruajtjes së të Dhënave | 5 vjet për të dhënat e pranuara. | 30 ditë për të gjitha të dhënat. |
| Zbatohet Për | Llogaritë Falas, Pro, Max të Claude dhe sesionet e Kodit të Claude. | Llogaritë Falas, Pro, Max të Claude dhe sesionet e Kodit të Claude. |
| Përjashtimet | Kushtet Komerciale, API, Amazon Bedrock, shërbimet Google Vertex AI. | Të njëjtat përjashtime. |
Ruajtja Strategjike e të Dhënave për Zhvillimin Afatgjatë të AI
Krahas pranimit (opt-in) për trajnimin e modelit, Anthropic po prezanton gjithashtu një periudhë të zgjatur ruajtjeje të të dhënave për përdoruesit që zgjedhin të marrin pjesë. Nëse një përdorues zgjedh të lejojë të dhënat e tij për përmirësimin e modelit, periudha e ruajtjes për bisedat dhe sesionet e reja ose të rifilluara të kodimit do të zgjatet në pesë vjet. Për përdoruesit që nuk pranojnë, periudha ekzistuese e ruajtjes së të dhënave prej 30 ditësh do të vazhdojë të zbatohet. Kjo ruajtje e zgjatur mbulon gjithashtu reagimet e dorëzuara rreth përgjigjeve të Claude ndaj 'prompts'.
Arsyeja pas periudhës pesëvjeçare të ruajtjes është thellësisht e rrënjosur në realitetet e zhvillimit të avancuar të AI. Modelet e mëdha gjuhësore i nënshtrohen cikleve të zhvillimit që shpesh zgjasin 18 deri në 24 muaj para lëshimit. Mbajtja e konsistencës së të dhënave gjatë periudhave më të gjata është jetike për krijimin e modeleve më të qëndrueshme dhe të parashikueshme. Të dhënat konsistente lejojnë që modelet të trajnohen dhe rafinohen në mënyra të ngjashme, duke çuar në tranzicione dhe përmirësime më të buta për përdoruesit.
Për më tepër, ruajtja e zgjatur ndihmon ndjeshëm në përmirësimin e klasifikuesve të brendshëm të Anthropic – sistemet e sofistikuara të përdorura për të identifikuar dhe kundërshtuar keqpërdorimin, abuzimin, spam-in dhe modelet e tjera të dëmshme. Këta mekanizma sigurie bëhen më efektivë duke mësuar nga të dhënat e mbledhura gjatë periudhave të zgjatura, duke rritur aftësinë e Claude për të mbetur një mjet i sigurt dhe i dobishëm për të gjithë. Anthropic është gjithashtu e angazhuar në diskutime më të gjera mbi sigurinë e AI, siç theksohet nga nismat si Instituti Anthropic.
Për të mbrojtur privatësinë e përdoruesve, Anthropic përdor një kombinim mjetesh të avancuara dhe procesesh të automatizuara për të filtruar ose fshehur të dhënat sensitive përpara se ato të përdoren për ndonjë trajnim ose analizë modelesh. Kompania deklaron me forcë se nuk shet të dhëna të përdoruesve palëve të treta, duke forcuar angazhimin e saj ndaj privatësisë edhe me ruajtjen e zgjatur për të dhënat e pranuara. Përdoruesit ruajnë kontrollin mbi të dhënat e tyre edhe pasi të kenë pranuar; fshirja e një bisede specifike siguron që ajo nuk do të përdoret për trajnimin e ardhshëm të modelit.
Fuqizimi i Përdoruesve dhe Qeverisja e të Dhënave
Kushtet e përditësuara të Konsumatorit dhe Politika e Privatësisë së Anthropic theksojnë një qasje të qendërzuar te përdoruesi në zhvillimin e AI. Duke vendosur zgjedhjen për të kontribuar në përmirësimin e modelit drejtpërdrejt në duart e përdoruesit, kompania synon të nxisë një marrëdhënie më transparente dhe bashkëpunuese. Aftësia për të modifikuar këto preferenca në çdo kohë siguron që përdoruesit të ruajnë kontrollin e vazhdueshëm mbi udhëtimin e të dhënave të tyre.
Nëse një përdorues fillimisht pranon (opt-in) për trajnimin e modelit, por më vonë vendos të ndryshojë mendje dhe të tërhiqet (opt-out), Anthropic ka një politikë të qartë. Ndërsa të dhënat e përdorura në rregullimet e trajnimit të modelit të përfunduar më parë dhe modelet tashmë të lëshuara mund të ekzistojnë ende brenda atyre versioneve, çdo bisedë dhe sesion i ri kodimi pas vendimit të tërheqjes nuk do të përdoret për trajnimin e ardhshëm. Kompania angazhohet të ndërpresë përdorimin e bisedave dhe sesioneve të kodimit të ruajtura më parë në çdo përsëritje të ardhme të trajnimit të modelit, pasi preferenca të jetë përditësuar. Kjo ofron një mekanizëm të fortë për përdoruesit për të menaxhuar cilësimet e tyre të privatësisë në mënyrë dinamike.
Këto përditësime përfaqësojnë një hap të matur drejt balancimit të potencialit të jashtëzakonshëm të inovacionit të AI të bazuar në të dhëna me rëndësinë kryesore të privatësisë së përdoruesve dhe transparencës. Ndërsa modelet AI bëhen gjithnjë e më shumë pjesë integrale e jetës së përditshme, politika të tilla janë thelbësore për ndërtimin e besimit dhe sigurimin e zhvillimit etik.
Burimi origjinal
https://www.anthropic.com/news/updates-to-our-consumer-termsPyetjet e bëra shpesh
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
Qëndroni të përditësuar
Merrni lajmet më të fundit të AI në email.
