Anthropic Claude இன் நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையில் முக்கிய புதுப்பிப்புகளை வெளியிடுகிறது
ஒரு முன்னணி AI ஆராய்ச்சி நிறுவனமான Anthropic, அதன் Claude AI மாதிரிகளைப் பயன்படுத்தும் பயனர்களுக்கான நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையில் குறிப்பிடத்தக்க புதுப்பிப்புகளை அறிவித்துள்ளது. ஆகஸ்ட் 28, 2025 முதல் நடைமுறைக்கு வரும் இந்த மாற்றங்கள், பயனர்களுக்கு அவர்களின் தரவின் மீது அதிகக் கட்டுப்பாட்டை வழங்கும் அதே வேளையில், Anthropic ஆல் மேலும் திறமையான மற்றும் பாதுகாப்பான AI அமைப்புகளை உருவாக்கவும் உதவுகின்றன. இந்த புதுப்பிப்புகளின் மையக்கரு, மாதிரிப் பயிற்சியில் தரவு பயன்பாட்டிற்கான ஒரு தேர்ந்தெடுப்பு பொறிமுறையிலும், பங்கேற்பவர்களுக்கு நீட்டிக்கப்பட்ட தரவு தக்கவைப்புக் காலத்திலும் அமைந்துள்ளது.
இந்த நடவடிக்கை செயற்கை நுண்ணறிவு மேம்பாட்டில் அதிக வெளிப்படைத்தன்மை மற்றும் பயனர் பிரதிநிதித்துவத்தை நோக்கிய ஒரு வளர்ந்து வரும் தொழில் போக்கைப் பிரதிபலிக்கிறது. பயனர்கள் தங்கள் தொடர்புகள் Claude இன் கற்றலுக்குப் பங்களிக்கிறதா என்பதைத் தீவிரமாகத் தேர்வுசெய்ய அனுமதிப்பதன் மூலம், Anthropic தனிப்பட்ட பயனர்களுக்கும் பரந்த AI சூழலியலுக்கும் பயனளிக்கும் ஒரு கூட்டுச் சூழலை வளர்க்க நோக்கமாகக் கொண்டுள்ளது. நுகர்வோர்-மையக் கொள்கைகளின் இந்த மூலோபாய வளர்ச்சி, பொறுப்பான AI மேம்பாடு மற்றும் பயனர் நம்பிக்கைக்கான நிறுவனத்தின் அர்ப்பணிப்பை அடிக்கோடிட்டுக் காட்டுகிறது.
பயனர்-உந்துதல் நுண்ணறிவு மற்றும் பாதுகாப்புகளுடன் Claude ஐ மேம்படுத்துதல்
Anthropic இன் புதுப்பிக்கப்பட்ட கொள்கையில் உள்ள முதன்மை மாற்றம், மாதிரி மேம்பாட்டிற்கான தரவு பயன்பாடு தொடர்பான பயனர் தேர்வின் அறிமுகமாகும். Claude இன் இலவச, Pro மற்றும் Max திட்டங்களில் உள்ள பயனர்கள், தொடர்புடைய கணக்குகளிலிருந்து Claude Code ஐப் பயன்படுத்துபவர்கள் உட்பட, எதிர்கால Claude மாதிரிகளின் பயிற்சிக்கு தங்கள் தரவைப் பங்களிக்க அனுமதிக்கும் விருப்பத்தைப் பெறுவார்கள். இந்த பங்கேற்பு மேலும் வலிமையான மற்றும் புத்திசாலித்தனமான AI ஐ உருவாக்குவதற்கான ஒரு முக்கியமான படியாகக் கருதப்படுகிறது.
இந்த தரவு பயன்பாட்டைத் தேர்ந்தெடுப்பது பல நேரடி நன்மைகளை வழங்குகிறது. Anthropic இன் கூற்றுப்படி, பயனர் தொடர்புகள் மதிப்புமிக்க உண்மையான உலக நுண்ணறிவுகளை வழங்குகின்றன, அவை மாதிரி பாதுகாப்பு நெறிமுறைகளைச் செம்மைப்படுத்த உதவுகின்றன, தீங்கு விளைவிக்கும் உள்ளடக்கத்தைக் கண்டறியும் அமைப்புகளை மேலும் துல்லியமாக்குகின்றன மற்றும் தீங்கற்ற உரையாடல்களைப் பிழை எனக் குறிக்க குறைந்த வாய்ப்பு அளிக்கின்றன. பாதுகாப்புக்கு அப்பால், பயனர் தரவு Claude இன் முக்கிய திறன்களான குறியீட்டுத் திறன், பகுப்பாய்வு பகுத்தறிவு மற்றும் சிக்கலான சிக்கல் தீர்க்கும் திறன்களை குறிப்பிடத்தக்க அளவில் மேம்படுத்தும் என்று எதிர்பார்க்கப்படுகிறது. இந்த பின்னூட்டச் சுழற்சி பெரிய மொழி மாதிரிகளின் தொடர்ச்சியான பரிணாம வளர்ச்சிக்கு அவசியமானது, இது அனைவருக்கும் மேலும் செம்மையான மற்றும் பயனுள்ள AI கருவிகளுக்கு வழிவகுக்கிறது.
இந்த புதுப்பிப்புகளின் குறிப்பிட்ட நோட்டைக் கவனத்தில் கொள்வது முக்கியம். நுகர்வோர்-நிலை கணக்குகளுக்குப் பொருந்தும் என்றாலும், இந்தக் கொள்கை மாற்றங்கள் Anthropic இன் வணிக விதிமுறைகளின் கீழ் நிர்வகிக்கப்படும் சேவைகளுக்கு வெளிப்படையாக நீட்டிக்கப்படவில்லை. இதில் Claude for Work, Claude for Government, Claude for Education, மற்றும் Amazon Bedrock அல்லது Google Cloud இன் Vertex AI போன்ற மூன்றாம் தரப்பு தளங்கள் மூலமாகவோ அல்லது நேரடியாகவோ அனைத்து API பயன்பாடுகளும் அடங்கும். இந்த வேறுபாடு வணிக வாடிக்கையாளர்கள் மற்றும் நிறுவன-நிலை கூட்டாளர்கள் தங்கள் இருக்கும், பெரும்பாலும் தனிப்பயனாக்கப்பட்ட, தரவு ஒப்பந்தங்கள் மற்றும் தனியுரிமை கட்டமைப்புகளைப் பராமரிப்பதை உறுதிசெய்கிறது. Amazon Bedrock AgentCore போன்ற சேவைகளைப் பயன்படுத்தும் பயனர்களுக்கு, தனி ஒப்பந்தங்கள் நடைமுறையில் உள்ளன.
உங்கள் தேர்வுகளை வழிநடத்துதல்: தேர்ந்தெடுத்தல் மற்றும் காலக்கெடு
பயனர்களுக்குத் தங்கள் தரவின் மீது தெளிவான கட்டுப்பாட்டை வழங்குவதில் Anthropic உறுதியாக உள்ளது. புதிய மற்றும் இருக்கும் Claude பயனர்கள் தங்கள் தரவுப் பகிர்வுத் தேர்வுகளைச் செய்வதற்கான தனித்தனி செயல்முறைகளைச் சந்திப்பார்கள். Claude இல் பதிவுசெய்யும் புதிய பயனர்கள், மாதிரிப் பயிற்சிக்குத் தங்கள் விருப்பத்தைத் தேர்ந்தெடுக்கும் விருப்பத்தை ஒரு ஒருங்கிணைந்த பகுதியாகக் காண்பார்கள், இது ஆரம்பத்திலிருந்தே அவர்களின் தனியுரிமை அமைப்புகளை வரையறுக்க அனுமதிக்கிறது.
இருக்கும் பயனர்களுக்கு, Anthropic பயன்பாட்டு அறிவிப்புகளைப் படிப்படியாக வெளியிடுகிறது. இந்த பாப்-அப் சாளரங்கள் பயனர்களைப் புதுப்பிக்கப்பட்ட நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையை மதிப்பாய்வு செய்யும்படியும், அவர்களின் தரவை மாதிரி மேம்பாட்டிற்காகப் பயன்படுத்த அனுமதிக்கலாமா என்பதை முடிவு செய்யும்படியும் கேட்கும். பயனர்களுக்கு அக்டோபர் 8, 2025 வரை இந்தத் தேர்வு செய்ய அவகாசம் உள்ளது. ஒரு இருக்கும் பயனர் இந்த காலக்கெடுவுக்கு முன் புதிய கொள்கைகளை ஏற்றுக்கொண்டு தேர்ந்தெடுத்தால், இந்த மாற்றங்கள் அனைத்து புதிய அல்லது மீண்டும் தொடங்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளுக்கு உடனடியாக நடைமுறைக்கு வரும். குறிப்பிடப்பட்ட தேதிக்குள் பயனர்கள் ஒரு தேர்வு செய்வது மிக முக்கியம், ஏனெனில் அக்டோபர் 8, 2025 க்குப் பிறகு Claude ஐத் தொடர்ந்து பயன்படுத்த, மாதிரிப் பயிற்சி அமைப்பில் ஒரு தேர்வு செய்வது அவசியமாகும். இது பயனர்கள் தங்கள் தனியுரிமை நிலப்பரப்பை வடிவமைப்பதில் தீவிரமாகப் பங்கேற்பதை உறுதிசெய்கிறது.
முக்கியமாக, பயனர் கட்டுப்பாடு ஒருமுறை எடுக்கும் முடிவு அல்ல. Claude இடைமுகத்திற்குள் உள்ள பிரத்தியேக தனியுரிமை அமைப்புகள் பகுதி மூலம் எந்த நேரத்திலும் விருப்பத்தேர்வுகளை மாற்றியமைக்கலாம் என்று Anthropic வலியுறுத்துகிறது. இந்த நெகிழ்வுத்தன்மை அவர்களின் தனிப்பட்ட தரவு தொடர்பான தொடர்ச்சியான பயனர் சுயாட்சிக்கு நிறுவனத்தின் அர்ப்பணிப்பை அடிக்கோடிட்டுக் காட்டுகிறது.
கொள்கை ஒப்பீடு: தரவு பயன்பாடு மற்றும் தக்கவைப்பு
இந்த புதுப்பிப்புகளின் தாக்கத்தைத் தெளிவுபடுத்துவதற்காக, புதிய நுகர்வோர் விதிமுறைகளின் கீழ் மாதிரிப் பயிற்சிக்கான தரவு பயன்பாட்டைத் தேர்ந்தெடுப்பதற்கும் தேர்வு செய்யாதிருப்பதற்கும் இடையிலான முக்கிய வேறுபாடுகளை பின்வரும் அட்டவணை சுருக்கமாகக் கூறுகிறது:
| அம்சம் | மாதிரிப் பயிற்சிக்காகத் தேர்ந்தெடுத்தல் (புதிய கொள்கை) | தேர்வு செய்யாதிருத்தல் (இருக்கும்/இயல்புநிலை கொள்கை) |
|---|---|---|
| தரவு பயன்பாடு | புதிய/மீண்டும் தொடங்கப்பட்ட அரட்டைகள் & குறியீட்டு அமர்வுகள் மாதிரி மேம்பாடு மற்றும் பாதுகாப்புக்காகப் பயன்படுத்தப்படும். | புதிய/மீண்டும் தொடங்கப்பட்ட அரட்டைகள் & குறியீட்டு அமர்வுகள் மாதிரிப் பயிற்சிக்கு பயன்படுத்தப்படாது. |
| தரவு தக்கவைப்புக் காலம் | தேர்ந்தெடுக்கப்பட்ட தரவுகளுக்கு 5 ஆண்டுகள். | அனைத்து தரவுகளுக்கும் 30 நாட்கள். |
| பொருந்தும் | Claude இலவச, Pro, Max கணக்குகள் & Claude Code அமர்வுகள். | Claude இலவச, Pro, Max கணக்குகள் & Claude Code அமர்வுகள். |
| விலக்குகள் | வணிக விதிமுறைகள், API, Amazon Bedrock, Google Vertex AI சேவைகள். | அதே விலக்குகள். |
நீண்ட கால AI மேம்பாட்டிற்கான மூலோபாய தரவு தக்கவைப்பு
மாதிரிப் பயிற்சிக்கான தேர்ந்தெடுப்புடன், பங்கேற்கத் தேர்வுசெய்யும் பயனர்களுக்கான நீட்டிக்கப்பட்ட தரவு தக்கவைப்புக் காலத்தையும் Anthropic அறிமுகப்படுத்துகிறது. ஒரு பயனர் தங்கள் தரவை மாதிரி மேம்பாட்டிற்காக அனுமதிக்கத் தேர்வுசெய்தால், புதிய அல்லது மீண்டும் தொடங்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளுக்கான தக்கவைப்புக் காலம் ஐந்து ஆண்டுகளாக நீட்டிக்கப்படும். தேர்வு செய்யாத பயனர்களுக்கு, இருக்கும் 30 நாள் தரவு தக்கவைப்புக் காலம் தொடர்ந்து பொருந்தும். இந்த நீட்டிக்கப்பட்ட தக்கவைப்பு Claude இன் தூண்டுதல்களுக்கு வழங்கப்பட்ட பதில்கள் குறித்த பின்னூட்டங்களையும் உள்ளடக்கியது.
ஐந்து ஆண்டு தக்கவைப்புக் காலத்தின் பின்னணியில் உள்ள நியாயம் மேம்பட்ட AI மேம்பாட்டின் யதார்த்தங்களில் ஆழமாக வேரூன்றியுள்ளது. பெரிய மொழி மாதிரிகள் பெரும்பாலும் 18 முதல் 24 மாதங்கள் வரை நீடிக்கும் மேம்பாட்டு சுழற்சிகளைக் கடந்து வெளியிடப்படுகின்றன. நீண்ட காலத்திற்கு தரவு நிலைத்தன்மையை பராமரிப்பது மிகவும் நிலையான மற்றும் கணிக்கக்கூடிய மாதிரிகளை உருவாக்குவதற்கு மிக முக்கியம். சீரான தரவு மாதிரிகளை ஒரே மாதிரியான வழிகளில் பயிற்றுவிக்கவும் செம்மைப்படுத்தவும் அனுமதிக்கிறது, இது பயனர்களுக்கு மென்மையான மாற்றங்கள் மற்றும் மேம்பாடுகளுக்கு வழிவகுக்கிறது.
மேலும், நீட்டிக்கப்பட்ட தக்கவைப்பு Anthropic இன் உள் வகைப்படுத்திகளை—தவறான பயன்பாடு, அத்துமீறல், ஸ்பேம் மற்றும் பிற தீங்கு விளைவிக்கும் முறைகளை அடையாளம் கண்டு தடுக்கும் அதிநவீன அமைப்புகளை—மேம்படுத்துவதில் குறிப்பிடத்தக்க அளவில் உதவுகிறது. இந்த பாதுகாப்பு வழிமுறைகள் நீண்ட காலத்திற்கு சேகரிக்கப்பட்ட தரவுகளிலிருந்து கற்றுக்கொள்வதன் மூலம் மேலும் பயனுள்ளதாகின்றன, இது Claude அனைவருக்கும் ஒரு பாதுகாப்பான மற்றும் பயனுள்ள கருவியாக இருப்பதற்கான திறனை மேம்படுத்துகிறது. The Anthropic Institute போன்ற முன்முயற்சிகளால் எடுத்துக்காட்டப்பட்டபடி, பரந்த AI பாதுகாப்பு விவாதங்களுக்கும் Anthropic உறுதியளிக்கிறது.
பயனர் தனியுரிமையைப் பாதுகாக்க, Anthropic மேம்பட்ட கருவிகள் மற்றும் தானியங்கு செயல்முறைகளின் கலவையைப் பயன்படுத்துகிறது, இது உணர்திறன் தரவுகளை எந்த மாதிரிப் பயிற்சி அல்லது பகுப்பாய்வுக்கும் பயன்படுத்தப்படுவதற்கு முன்பு வடிகட்ட அல்லது மறைக்க வடிவமைக்கப்பட்டுள்ளது. தேர்ந்தெடுத்த தரவுகளுக்கு நீட்டிக்கப்பட்ட தக்கவைப்புடன் கூட, பயனர் தரவுகளை மூன்றாம் தரப்பினருக்கு விற்பதில்லை என்று நிறுவனம் திட்டவட்டமாகக் கூறுகிறது, இது தனியுரிமைக்கான அதன் உறுதிப்பாட்டை வலுப்படுத்துகிறது. தேர்ந்தெடுத்த பிறகும் பயனர்கள் தங்கள் தரவின் மீது கட்டுப்பாட்டைப் பராமரிக்கிறார்கள்; ஒரு குறிப்பிட்ட உரையாடலை நீக்குவது எதிர்கால மாதிரிப் பயிற்சிக்கு அது பயன்படுத்தப்படாது என்பதை உறுதிசெய்கிறது.
பயனர் மேம்பாடு மற்றும் தரவு நிர்வாகம்
Anthropic இன் புதுப்பிக்கப்பட்ட நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கை AI மேம்பாட்டிற்கான பயனர்-மைய அணுகுமுறையை அடிக்கோடிட்டுக் காட்டுகிறது. மாதிரி மேம்பாட்டிற்குப் பங்களிக்கும் தேர்வை நேரடியாகப் பயனரின் கைகளில் வைப்பதன் மூலம், நிறுவனம் ஒரு வெளிப்படையான மற்றும் கூட்டுறவு உறவை வளர்க்க நோக்கமாகக் கொண்டுள்ளது. இந்த விருப்பத்தேர்வுகளை எந்த நேரத்திலும் மாற்றியமைக்கும் திறன், பயனர்கள் தங்கள் தரவின் பயணம் மீது தொடர்ச்சியான கட்டுப்பாட்டைப் பராமரிப்பதை உறுதிசெய்கிறது.
ஒரு பயனர் ஆரம்பத்தில் மாதிரிப் பயிற்சிக்காகத் தேர்ந்தெடுத்து, பின்னர் தங்கள் முடிவை மாற்றி வெளியேற முடிவு செய்தால், Anthropic ஒரு தெளிவான கொள்கையைக் கொண்டுள்ளது. முன்னர் முடிக்கப்பட்ட மாதிரிப் பயிற்சி ரன்களில் பயன்படுத்தப்பட்ட தரவுகள் மற்றும் ஏற்கனவே வெளியிடப்பட்ட மாதிரிகள் அந்தப் பதிப்புகளில் இன்னும் இருக்கலாம் என்றாலும், வெளியேறும் முடிவுக்குப் பிறகு மேற்கொள்ளப்படும் எந்த புதிய அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகள் எதிர்கால பயிற்சிக்கு பயன்படுத்தப்படாது. விருப்பத்தேர்வு புதுப்பிக்கப்பட்டவுடன், முன்னர் சேமிக்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளை எந்த எதிர்கால மாதிரிப் பயிற்சி மறு செய்கைகளிலும் பயன்படுத்துவதை நிறுத்திவிடுவதாக நிறுவனம் உறுதியளிக்கிறது. இது பயனர்கள் தங்கள் தனியுரிமை அமைப்புகளை மாறும் வகையில் நிர்வகிக்க ஒரு வலிமையான பொறிமுறையை வழங்குகிறது.
இந்த புதுப்பிப்புகள், தரவு-சார்ந்த AI கண்டுபிடிப்புகளின் அளவற்ற திறனை பயனர் தனியுரிமை மற்றும் வெளிப்படைத்தன்மையின் மிக முக்கியத்துவத்துடன் சமநிலைப்படுத்துவதற்கான ஒரு அளவிடப்பட்ட படியைக் குறிக்கின்றன. AI மாதிரிகள் அன்றாட வாழ்க்கையில் மேலும் மேலும் ஒருங்கிணைக்கப்படுவதால், நம்பிக்கை கட்டியெழுப்புவதற்கும் நெறிமுறை மேம்பாட்டை உறுதி செய்வதற்கும் இது போன்ற கொள்கைகள் மிக முக்கியம்.
அடிக்கடி கேட்கப்படும் கேள்விகள்
What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Which Claude services and user types are affected by these new policy updates, and which are not?
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
புதுப்பிப்புகளைப் பெறுங்கள்
சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.
