Code Velocity
AI மாதிரிகள்

Anthropic Claude: நுகர்வோர் விதிமுறைகள் & தனியுரிமைக் கொள்கை புதுப்பிப்புகள்

·5 நிமிட வாசிப்பு·Anthropic·அசல் மூலம்
பகிர்
Anthropic Claude நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கை புதுப்பித்தல் அறிவிப்புத் திரை

Anthropic Claude இன் நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையில் முக்கிய புதுப்பிப்புகளை வெளியிடுகிறது

ஒரு முன்னணி AI ஆராய்ச்சி நிறுவனமான Anthropic, அதன் Claude AI மாதிரிகளைப் பயன்படுத்தும் பயனர்களுக்கான நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையில் குறிப்பிடத்தக்க புதுப்பிப்புகளை அறிவித்துள்ளது. ஆகஸ்ட் 28, 2025 முதல் நடைமுறைக்கு வரும் இந்த மாற்றங்கள், பயனர்களுக்கு அவர்களின் தரவின் மீது அதிகக் கட்டுப்பாட்டை வழங்கும் அதே வேளையில், Anthropic ஆல் மேலும் திறமையான மற்றும் பாதுகாப்பான AI அமைப்புகளை உருவாக்கவும் உதவுகின்றன. இந்த புதுப்பிப்புகளின் மையக்கரு, மாதிரிப் பயிற்சியில் தரவு பயன்பாட்டிற்கான ஒரு தேர்ந்தெடுப்பு பொறிமுறையிலும், பங்கேற்பவர்களுக்கு நீட்டிக்கப்பட்ட தரவு தக்கவைப்புக் காலத்திலும் அமைந்துள்ளது.

இந்த நடவடிக்கை செயற்கை நுண்ணறிவு மேம்பாட்டில் அதிக வெளிப்படைத்தன்மை மற்றும் பயனர் பிரதிநிதித்துவத்தை நோக்கிய ஒரு வளர்ந்து வரும் தொழில் போக்கைப் பிரதிபலிக்கிறது. பயனர்கள் தங்கள் தொடர்புகள் Claude இன் கற்றலுக்குப் பங்களிக்கிறதா என்பதைத் தீவிரமாகத் தேர்வுசெய்ய அனுமதிப்பதன் மூலம், Anthropic தனிப்பட்ட பயனர்களுக்கும் பரந்த AI சூழலியலுக்கும் பயனளிக்கும் ஒரு கூட்டுச் சூழலை வளர்க்க நோக்கமாகக் கொண்டுள்ளது. நுகர்வோர்-மையக் கொள்கைகளின் இந்த மூலோபாய வளர்ச்சி, பொறுப்பான AI மேம்பாடு மற்றும் பயனர் நம்பிக்கைக்கான நிறுவனத்தின் அர்ப்பணிப்பை அடிக்கோடிட்டுக் காட்டுகிறது.

பயனர்-உந்துதல் நுண்ணறிவு மற்றும் பாதுகாப்புகளுடன் Claude ஐ மேம்படுத்துதல்

Anthropic இன் புதுப்பிக்கப்பட்ட கொள்கையில் உள்ள முதன்மை மாற்றம், மாதிரி மேம்பாட்டிற்கான தரவு பயன்பாடு தொடர்பான பயனர் தேர்வின் அறிமுகமாகும். Claude இன் இலவச, Pro மற்றும் Max திட்டங்களில் உள்ள பயனர்கள், தொடர்புடைய கணக்குகளிலிருந்து Claude Code ஐப் பயன்படுத்துபவர்கள் உட்பட, எதிர்கால Claude மாதிரிகளின் பயிற்சிக்கு தங்கள் தரவைப் பங்களிக்க அனுமதிக்கும் விருப்பத்தைப் பெறுவார்கள். இந்த பங்கேற்பு மேலும் வலிமையான மற்றும் புத்திசாலித்தனமான AI ஐ உருவாக்குவதற்கான ஒரு முக்கியமான படியாகக் கருதப்படுகிறது.

இந்த தரவு பயன்பாட்டைத் தேர்ந்தெடுப்பது பல நேரடி நன்மைகளை வழங்குகிறது. Anthropic இன் கூற்றுப்படி, பயனர் தொடர்புகள் மதிப்புமிக்க உண்மையான உலக நுண்ணறிவுகளை வழங்குகின்றன, அவை மாதிரி பாதுகாப்பு நெறிமுறைகளைச் செம்மைப்படுத்த உதவுகின்றன, தீங்கு விளைவிக்கும் உள்ளடக்கத்தைக் கண்டறியும் அமைப்புகளை மேலும் துல்லியமாக்குகின்றன மற்றும் தீங்கற்ற உரையாடல்களைப் பிழை எனக் குறிக்க குறைந்த வாய்ப்பு அளிக்கின்றன. பாதுகாப்புக்கு அப்பால், பயனர் தரவு Claude இன் முக்கிய திறன்களான குறியீட்டுத் திறன், பகுப்பாய்வு பகுத்தறிவு மற்றும் சிக்கலான சிக்கல் தீர்க்கும் திறன்களை குறிப்பிடத்தக்க அளவில் மேம்படுத்தும் என்று எதிர்பார்க்கப்படுகிறது. இந்த பின்னூட்டச் சுழற்சி பெரிய மொழி மாதிரிகளின் தொடர்ச்சியான பரிணாம வளர்ச்சிக்கு அவசியமானது, இது அனைவருக்கும் மேலும் செம்மையான மற்றும் பயனுள்ள AI கருவிகளுக்கு வழிவகுக்கிறது.

இந்த புதுப்பிப்புகளின் குறிப்பிட்ட நோட்டைக் கவனத்தில் கொள்வது முக்கியம். நுகர்வோர்-நிலை கணக்குகளுக்குப் பொருந்தும் என்றாலும், இந்தக் கொள்கை மாற்றங்கள் Anthropic இன் வணிக விதிமுறைகளின் கீழ் நிர்வகிக்கப்படும் சேவைகளுக்கு வெளிப்படையாக நீட்டிக்கப்படவில்லை. இதில் Claude for Work, Claude for Government, Claude for Education, மற்றும் Amazon Bedrock அல்லது Google Cloud இன் Vertex AI போன்ற மூன்றாம் தரப்பு தளங்கள் மூலமாகவோ அல்லது நேரடியாகவோ அனைத்து API பயன்பாடுகளும் அடங்கும். இந்த வேறுபாடு வணிக வாடிக்கையாளர்கள் மற்றும் நிறுவன-நிலை கூட்டாளர்கள் தங்கள் இருக்கும், பெரும்பாலும் தனிப்பயனாக்கப்பட்ட, தரவு ஒப்பந்தங்கள் மற்றும் தனியுரிமை கட்டமைப்புகளைப் பராமரிப்பதை உறுதிசெய்கிறது. Amazon Bedrock AgentCore போன்ற சேவைகளைப் பயன்படுத்தும் பயனர்களுக்கு, தனி ஒப்பந்தங்கள் நடைமுறையில் உள்ளன.

உங்கள் தேர்வுகளை வழிநடத்துதல்: தேர்ந்தெடுத்தல் மற்றும் காலக்கெடு

பயனர்களுக்குத் தங்கள் தரவின் மீது தெளிவான கட்டுப்பாட்டை வழங்குவதில் Anthropic உறுதியாக உள்ளது. புதிய மற்றும் இருக்கும் Claude பயனர்கள் தங்கள் தரவுப் பகிர்வுத் தேர்வுகளைச் செய்வதற்கான தனித்தனி செயல்முறைகளைச் சந்திப்பார்கள். Claude இல் பதிவுசெய்யும் புதிய பயனர்கள், மாதிரிப் பயிற்சிக்குத் தங்கள் விருப்பத்தைத் தேர்ந்தெடுக்கும் விருப்பத்தை ஒரு ஒருங்கிணைந்த பகுதியாகக் காண்பார்கள், இது ஆரம்பத்திலிருந்தே அவர்களின் தனியுரிமை அமைப்புகளை வரையறுக்க அனுமதிக்கிறது.

இருக்கும் பயனர்களுக்கு, Anthropic பயன்பாட்டு அறிவிப்புகளைப் படிப்படியாக வெளியிடுகிறது. இந்த பாப்-அப் சாளரங்கள் பயனர்களைப் புதுப்பிக்கப்பட்ட நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கையை மதிப்பாய்வு செய்யும்படியும், அவர்களின் தரவை மாதிரி மேம்பாட்டிற்காகப் பயன்படுத்த அனுமதிக்கலாமா என்பதை முடிவு செய்யும்படியும் கேட்கும். பயனர்களுக்கு அக்டோபர் 8, 2025 வரை இந்தத் தேர்வு செய்ய அவகாசம் உள்ளது. ஒரு இருக்கும் பயனர் இந்த காலக்கெடுவுக்கு முன் புதிய கொள்கைகளை ஏற்றுக்கொண்டு தேர்ந்தெடுத்தால், இந்த மாற்றங்கள் அனைத்து புதிய அல்லது மீண்டும் தொடங்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளுக்கு உடனடியாக நடைமுறைக்கு வரும். குறிப்பிடப்பட்ட தேதிக்குள் பயனர்கள் ஒரு தேர்வு செய்வது மிக முக்கியம், ஏனெனில் அக்டோபர் 8, 2025 க்குப் பிறகு Claude ஐத் தொடர்ந்து பயன்படுத்த, மாதிரிப் பயிற்சி அமைப்பில் ஒரு தேர்வு செய்வது அவசியமாகும். இது பயனர்கள் தங்கள் தனியுரிமை நிலப்பரப்பை வடிவமைப்பதில் தீவிரமாகப் பங்கேற்பதை உறுதிசெய்கிறது.

முக்கியமாக, பயனர் கட்டுப்பாடு ஒருமுறை எடுக்கும் முடிவு அல்ல. Claude இடைமுகத்திற்குள் உள்ள பிரத்தியேக தனியுரிமை அமைப்புகள் பகுதி மூலம் எந்த நேரத்திலும் விருப்பத்தேர்வுகளை மாற்றியமைக்கலாம் என்று Anthropic வலியுறுத்துகிறது. இந்த நெகிழ்வுத்தன்மை அவர்களின் தனிப்பட்ட தரவு தொடர்பான தொடர்ச்சியான பயனர் சுயாட்சிக்கு நிறுவனத்தின் அர்ப்பணிப்பை அடிக்கோடிட்டுக் காட்டுகிறது.

கொள்கை ஒப்பீடு: தரவு பயன்பாடு மற்றும் தக்கவைப்பு

இந்த புதுப்பிப்புகளின் தாக்கத்தைத் தெளிவுபடுத்துவதற்காக, புதிய நுகர்வோர் விதிமுறைகளின் கீழ் மாதிரிப் பயிற்சிக்கான தரவு பயன்பாட்டைத் தேர்ந்தெடுப்பதற்கும் தேர்வு செய்யாதிருப்பதற்கும் இடையிலான முக்கிய வேறுபாடுகளை பின்வரும் அட்டவணை சுருக்கமாகக் கூறுகிறது:

அம்சம்மாதிரிப் பயிற்சிக்காகத் தேர்ந்தெடுத்தல் (புதிய கொள்கை)தேர்வு செய்யாதிருத்தல் (இருக்கும்/இயல்புநிலை கொள்கை)
தரவு பயன்பாடுபுதிய/மீண்டும் தொடங்கப்பட்ட அரட்டைகள் & குறியீட்டு அமர்வுகள் மாதிரி மேம்பாடு மற்றும் பாதுகாப்புக்காகப் பயன்படுத்தப்படும்.புதிய/மீண்டும் தொடங்கப்பட்ட அரட்டைகள் & குறியீட்டு அமர்வுகள் மாதிரிப் பயிற்சிக்கு பயன்படுத்தப்படாது.
தரவு தக்கவைப்புக் காலம்தேர்ந்தெடுக்கப்பட்ட தரவுகளுக்கு 5 ஆண்டுகள்.அனைத்து தரவுகளுக்கும் 30 நாட்கள்.
பொருந்தும்Claude இலவச, Pro, Max கணக்குகள் & Claude Code அமர்வுகள்.Claude இலவச, Pro, Max கணக்குகள் & Claude Code அமர்வுகள்.
விலக்குகள்வணிக விதிமுறைகள், API, Amazon Bedrock, Google Vertex AI சேவைகள்.அதே விலக்குகள்.

நீண்ட கால AI மேம்பாட்டிற்கான மூலோபாய தரவு தக்கவைப்பு

மாதிரிப் பயிற்சிக்கான தேர்ந்தெடுப்புடன், பங்கேற்கத் தேர்வுசெய்யும் பயனர்களுக்கான நீட்டிக்கப்பட்ட தரவு தக்கவைப்புக் காலத்தையும் Anthropic அறிமுகப்படுத்துகிறது. ஒரு பயனர் தங்கள் தரவை மாதிரி மேம்பாட்டிற்காக அனுமதிக்கத் தேர்வுசெய்தால், புதிய அல்லது மீண்டும் தொடங்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளுக்கான தக்கவைப்புக் காலம் ஐந்து ஆண்டுகளாக நீட்டிக்கப்படும். தேர்வு செய்யாத பயனர்களுக்கு, இருக்கும் 30 நாள் தரவு தக்கவைப்புக் காலம் தொடர்ந்து பொருந்தும். இந்த நீட்டிக்கப்பட்ட தக்கவைப்பு Claude இன் தூண்டுதல்களுக்கு வழங்கப்பட்ட பதில்கள் குறித்த பின்னூட்டங்களையும் உள்ளடக்கியது.

ஐந்து ஆண்டு தக்கவைப்புக் காலத்தின் பின்னணியில் உள்ள நியாயம் மேம்பட்ட AI மேம்பாட்டின் யதார்த்தங்களில் ஆழமாக வேரூன்றியுள்ளது. பெரிய மொழி மாதிரிகள் பெரும்பாலும் 18 முதல் 24 மாதங்கள் வரை நீடிக்கும் மேம்பாட்டு சுழற்சிகளைக் கடந்து வெளியிடப்படுகின்றன. நீண்ட காலத்திற்கு தரவு நிலைத்தன்மையை பராமரிப்பது மிகவும் நிலையான மற்றும் கணிக்கக்கூடிய மாதிரிகளை உருவாக்குவதற்கு மிக முக்கியம். சீரான தரவு மாதிரிகளை ஒரே மாதிரியான வழிகளில் பயிற்றுவிக்கவும் செம்மைப்படுத்தவும் அனுமதிக்கிறது, இது பயனர்களுக்கு மென்மையான மாற்றங்கள் மற்றும் மேம்பாடுகளுக்கு வழிவகுக்கிறது.

மேலும், நீட்டிக்கப்பட்ட தக்கவைப்பு Anthropic இன் உள் வகைப்படுத்திகளை—தவறான பயன்பாடு, அத்துமீறல், ஸ்பேம் மற்றும் பிற தீங்கு விளைவிக்கும் முறைகளை அடையாளம் கண்டு தடுக்கும் அதிநவீன அமைப்புகளை—மேம்படுத்துவதில் குறிப்பிடத்தக்க அளவில் உதவுகிறது. இந்த பாதுகாப்பு வழிமுறைகள் நீண்ட காலத்திற்கு சேகரிக்கப்பட்ட தரவுகளிலிருந்து கற்றுக்கொள்வதன் மூலம் மேலும் பயனுள்ளதாகின்றன, இது Claude அனைவருக்கும் ஒரு பாதுகாப்பான மற்றும் பயனுள்ள கருவியாக இருப்பதற்கான திறனை மேம்படுத்துகிறது. The Anthropic Institute போன்ற முன்முயற்சிகளால் எடுத்துக்காட்டப்பட்டபடி, பரந்த AI பாதுகாப்பு விவாதங்களுக்கும் Anthropic உறுதியளிக்கிறது.

பயனர் தனியுரிமையைப் பாதுகாக்க, Anthropic மேம்பட்ட கருவிகள் மற்றும் தானியங்கு செயல்முறைகளின் கலவையைப் பயன்படுத்துகிறது, இது உணர்திறன் தரவுகளை எந்த மாதிரிப் பயிற்சி அல்லது பகுப்பாய்வுக்கும் பயன்படுத்தப்படுவதற்கு முன்பு வடிகட்ட அல்லது மறைக்க வடிவமைக்கப்பட்டுள்ளது. தேர்ந்தெடுத்த தரவுகளுக்கு நீட்டிக்கப்பட்ட தக்கவைப்புடன் கூட, பயனர் தரவுகளை மூன்றாம் தரப்பினருக்கு விற்பதில்லை என்று நிறுவனம் திட்டவட்டமாகக் கூறுகிறது, இது தனியுரிமைக்கான அதன் உறுதிப்பாட்டை வலுப்படுத்துகிறது. தேர்ந்தெடுத்த பிறகும் பயனர்கள் தங்கள் தரவின் மீது கட்டுப்பாட்டைப் பராமரிக்கிறார்கள்; ஒரு குறிப்பிட்ட உரையாடலை நீக்குவது எதிர்கால மாதிரிப் பயிற்சிக்கு அது பயன்படுத்தப்படாது என்பதை உறுதிசெய்கிறது.

பயனர் மேம்பாடு மற்றும் தரவு நிர்வாகம்

Anthropic இன் புதுப்பிக்கப்பட்ட நுகர்வோர் விதிமுறைகள் மற்றும் தனியுரிமைக் கொள்கை AI மேம்பாட்டிற்கான பயனர்-மைய அணுகுமுறையை அடிக்கோடிட்டுக் காட்டுகிறது. மாதிரி மேம்பாட்டிற்குப் பங்களிக்கும் தேர்வை நேரடியாகப் பயனரின் கைகளில் வைப்பதன் மூலம், நிறுவனம் ஒரு வெளிப்படையான மற்றும் கூட்டுறவு உறவை வளர்க்க நோக்கமாகக் கொண்டுள்ளது. இந்த விருப்பத்தேர்வுகளை எந்த நேரத்திலும் மாற்றியமைக்கும் திறன், பயனர்கள் தங்கள் தரவின் பயணம் மீது தொடர்ச்சியான கட்டுப்பாட்டைப் பராமரிப்பதை உறுதிசெய்கிறது.

ஒரு பயனர் ஆரம்பத்தில் மாதிரிப் பயிற்சிக்காகத் தேர்ந்தெடுத்து, பின்னர் தங்கள் முடிவை மாற்றி வெளியேற முடிவு செய்தால், Anthropic ஒரு தெளிவான கொள்கையைக் கொண்டுள்ளது. முன்னர் முடிக்கப்பட்ட மாதிரிப் பயிற்சி ரன்களில் பயன்படுத்தப்பட்ட தரவுகள் மற்றும் ஏற்கனவே வெளியிடப்பட்ட மாதிரிகள் அந்தப் பதிப்புகளில் இன்னும் இருக்கலாம் என்றாலும், வெளியேறும் முடிவுக்குப் பிறகு மேற்கொள்ளப்படும் எந்த புதிய அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகள் எதிர்கால பயிற்சிக்கு பயன்படுத்தப்படாது. விருப்பத்தேர்வு புதுப்பிக்கப்பட்டவுடன், முன்னர் சேமிக்கப்பட்ட அரட்டைகள் மற்றும் குறியீட்டு அமர்வுகளை எந்த எதிர்கால மாதிரிப் பயிற்சி மறு செய்கைகளிலும் பயன்படுத்துவதை நிறுத்திவிடுவதாக நிறுவனம் உறுதியளிக்கிறது. இது பயனர்கள் தங்கள் தனியுரிமை அமைப்புகளை மாறும் வகையில் நிர்வகிக்க ஒரு வலிமையான பொறிமுறையை வழங்குகிறது.

இந்த புதுப்பிப்புகள், தரவு-சார்ந்த AI கண்டுபிடிப்புகளின் அளவற்ற திறனை பயனர் தனியுரிமை மற்றும் வெளிப்படைத்தன்மையின் மிக முக்கியத்துவத்துடன் சமநிலைப்படுத்துவதற்கான ஒரு அளவிடப்பட்ட படியைக் குறிக்கின்றன. AI மாதிரிகள் அன்றாட வாழ்க்கையில் மேலும் மேலும் ஒருங்கிணைக்கப்படுவதால், நம்பிக்கை கட்டியெழுப்புவதற்கும் நெறிமுறை மேம்பாட்டை உறுதி செய்வதற்கும் இது போன்ற கொள்கைகள் மிக முக்கியம்.

அடிக்கடி கேட்கப்படும் கேள்விகள்

What are the core changes introduced in Anthropic's updated Consumer Terms and Privacy Policy for Claude users?
Anthropic is rolling out significant updates to its Consumer Terms and Privacy Policy, primarily centered around empowering users with the choice to allow their data to be used for improving Claude AI models. When this setting is enabled, data from Free, Pro, and Max accounts, including Claude Code sessions, will contribute to training new models. This aims to enhance model safety, accuracy, and capabilities in areas like coding, analysis, and reasoning. Additionally, for users who opt-in, the data retention period will be extended to five years. Conversely, if users choose not to opt-in for model training, the existing 30-day data retention policy will remain in effect. These changes do not impact commercial users under specific enterprise agreements or API usage, ensuring distinct policies for different user segments.
Which Claude services and user types are affected by these new policy updates, and which are not?
The updated Consumer Terms and Privacy Policy specifically apply to individual users on Anthropic's Claude Free, Pro, and Max plans. This includes instances where users interact with Claude Code through accounts associated with these consumer plans. However, it's crucial to understand that these updates do not extend to services operating under Anthropic's Commercial Terms. This means that Claude for Work (including Team and Enterprise plans), Claude for Government, Claude for Education, and all API uses—whether direct or via third-party platforms such as Amazon Bedrock or Google Cloud’s Vertex AI—are explicitly excluded from these new consumer-focused policy changes. Commercial users and API integrators will continue to operate under their existing agreements, which have separate privacy and data handling provisions.
Why is Anthropic making these changes, particularly regarding data usage for model training and extended retention?
Anthropic states that these changes are driven by the fundamental need to continuously improve the capability, safety, and utility of large language models like Claude. Real-world interactions provide invaluable data signals that help models learn which responses are most helpful, accurate, and safe. For example, developers debugging code with Claude offer crucial insights for improving future coding capabilities. The extended five-year data retention, specifically for users who opt-in, is designed to support the long development cycles of AI, ensuring data consistency for more stable model upgrades and enhancing the effectiveness of internal classifiers that detect and mitigate harmful usage patterns such as abuse or spam over longer periods, ultimately making Claude safer for everyone.
What steps do existing and new Claude users need to take concerning these policy updates and their data preferences?
Existing Claude users will receive an in-app notification prompting them to review the updates and make a decision regarding whether to allow their chats and coding sessions to be used for model improvement. Users have until October 8, 2025, to make this selection. If they choose to accept earlier, the new policies apply immediately to new or resumed chats. After the deadline, making a selection is mandatory to continue using Claude. New users will be presented with this choice as part of the initial signup process. Regardless of whether one is a new or existing user, the preference can be modified at any time through the dedicated Privacy Settings within the Claude interface, offering continuous control over personal data usage and ensuring transparency.
What happens if a user initially allows data for model training but later decides to change their mind and opt-out?
Anthropic emphasizes that users retain full control over their data preferences and can update their selection at any time through their Privacy Settings. If a user initially opts-in for model training and later decides to turn this setting off, any *new* chats and coding sessions with Claude will no longer be used for future model training runs. It's important to note, however, that data from previously completed model training runs and models that have already been released may still contain data from their past interactions. Nevertheless, Anthropic commits to stopping the use of those previously stored chats and coding sessions in any *future* model training iterations once the opt-out preference is registered, thereby respecting the user's updated choice for ongoing data usage and privacy.
How does Anthropic ensure user privacy and data protection with these new policies, especially with extended retention?
To safeguard user privacy, Anthropic employs a combination of advanced tools and automated processes designed to filter or obfuscate sensitive data before it is used for model training, even with the extended retention period for opted-in users. The company explicitly states that it does not sell user data to third parties, reinforcing its commitment to privacy. Furthermore, users maintain control: deleting a conversation ensures it won't be used for future model training, and changing the opt-in setting prevents new chats from being used. These measures aim to balance the need for data-driven model improvement with stringent privacy protections, ensuring user trust and data security throughout the AI development lifecycle. This comprehensive approach underscores Anthropic's dedication to responsible AI practices.

புதுப்பிப்புகளைப் பெறுங்கள்

சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.

பகிர்