Code Velocity
AI பாதுகாப்பு

AI குறித்து போர் துறைக்கு Anthropic சவால்: உரிமைகள் மற்றும் பாதுகாப்பைக் குறிப்பிட்டது

·4 நிமிட வாசிப்பு·Anthropic·அசல் மூலம்
பகிர்
AI நெறிமுறைகள் தொடர்பான போர் துறையின் சாத்தியமான விநியோகச் சங்கிலி இடர் வகைப்பாடு குறித்த Anthropic-இன் அதிகாரப்பூர்வ அறிக்கை.

AI நெறிமுறைகள் தொடர்பாக போர் துறைக்கு எதிராக Anthropic உறுதியாக நிற்கிறது

தொழில்நுட்ப மற்றும் பாதுகாப்புத் துறைகளில் அலைகளை ஏற்படுத்திய ஒரு முன்னோடியில்லாத நடவடிக்கையில், AI முன்னணி நிறுவனமான Anthropic, 'விநியோகச் சங்கிலி இடர்' வகைப்பாடு குறித்து போர் துறைக்கு (DoW) பகிரங்கமாக சவால் விடுத்துள்ளது. அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்பு மற்றும் முழு தன்னாட்சி ஆயுதங்களில் பயன்படுத்துதல் ஆகிய இரண்டு குறிப்பிட்ட பயன்பாடுகளுக்கு தனது மேம்பட்ட AI மாதிரியான Claude-ஐப் பயன்படுத்த Anthropic தொடர்ந்து மறுத்ததிலிருந்தே இந்த மோதல் உருவாகிறது. 2026 பிப்ரவரி 27 அன்று X மூலம் போர் துறை செயலாளர் Pete Hegseth அறிவித்த இந்த நிலைப்பாடு, AI நெறிமுறைகள், தேசிய பாதுகாப்பு மற்றும் பெருநிறுவன பொறுப்பு குறித்த விவாதத்தில் ஒரு முக்கியமான திருப்புமுனையாகும்.

தனது நிலைப்பாடு அறநெறி ரீதியானது மட்டுமல்ல, பொது நம்பிக்கை மற்றும் பாதுகாப்புக்கு இன்றியமையாதது என்றும் Anthropic வலியுறுத்துகிறது, மேலும் அத்தகைய எந்தவொரு வகைப்பாட்டையும் சட்டப்பூர்வமாக எதிர்த்துப் போராடவும் உறுதியளிக்கிறது. இந்த விஷயத்தில் நிறுவனத்தின் வெளிப்படைத்தன்மை, அதிநவீன AI-இன் இராணுவம் மற்றும் கண்காணிப்புப் பயன்பாடுகள் குறித்து தெளிவான வழிகாட்டுதல்கள் மற்றும் வலுவான உரையாடலின் அவசரத் தேவையை எடுத்துக்காட்டுகிறது.

அறநெறி வரம்பு: கண்காணிப்பு மற்றும் தன்னாட்சி ஆயுதங்கள்

சர்ச்சையின் மையத்தில் Anthropic-இன் இரண்டு குறிப்பிட்ட விதிவிலக்குகள் உள்ளன, அவை தேசிய பாதுகாப்புக்காக அதன் AI மாதிரிகளை சட்டப்பூர்வமாகப் பயன்படுத்துவது தொடர்பானவை. போர் துறையுடனான மாதக்கணக்கான பேச்சுவார்த்தைகளை நிறுத்தி வைத்ததாகக் கூறப்படும் இந்த விதிவிலக்குகள்:

  1. அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்பு: AI-ஐப் பயன்படுத்தி அதன் சொந்த குடிமக்களை பரவலாகக் கண்காணிப்பது அடிப்படை உரிமைகள் மற்றும் ஜனநாயகக் கொள்கைகளின் கடுமையான மீறல் என்று Anthropic நம்புகிறது. தனியுரிமையை சிவில் சுதந்திரங்களின் ஒரு மூலக்கல்லாகக் கருதும் நிறுவனம், இந்த முறையில் AI-ஐப் பயன்படுத்துவது அந்த அடித்தளத்தை அரிக்கக்கூடும் என்று கருதுகிறது.
  2. முழு தன்னாட்சி ஆயுதங்கள்: தற்போதைய அதிநவீன AI மாதிரிகள், Claude உட்பட, மனித தலையீடு இல்லாமல் உயிர்-மரண முடிவுகளை எடுக்கும் அமைப்புகளில் பயன்படுத்தும் அளவுக்கு நம்பகமானவை அல்ல என்று நிறுவனம் உறுதியாகக் கூறுகிறது. அத்தகைய நம்பகத்தன்மையின்மை, Anthropic எச்சரிக்கிறது, அமெரிக்க போர் வீரர்கள் மற்றும் அப்பாவி பொதுமக்கள் இருவரையும் சோகமாக ஆபத்தில் ஆழ்த்தக்கூடும். சிக்கலான, அதிக ஆபத்துள்ள சூழல்களில் மேம்பட்ட மாதிரிகளின் கணிக்க முடியாத தன்மை குறித்த AI சமூகம் முழுவதும் அதிகரித்து வரும் கவலைகளுடன் இந்த நிலைப்பாடு ஒத்துப்போகிறது.

இந்தக் குறுகிய விதிவிலக்குகள், நிறுவனத்திற்குத் தெரிந்தவரை, எந்தவொரு தற்போதைய அரசாங்கப் பணியையும் தடுக்கவில்லை என்று Anthropic வலியுறுத்துகிறது. நிறுவனம், 2024 ஜூன் முதல் அமெரிக்க அரசாங்கத்தின் இரகசிய நெட்வொர்க்குகளில் தனது மாதிரிகளைப் பயன்படுத்தி, அமெரிக்க தேசிய பாதுகாப்பு முயற்சிகளை ஆதரிப்பதற்கான ஒரு நிரூபிக்கப்பட்ட வரலாற்றைக் கொண்டுள்ளது. இந்த முக்கியமான அறநெறி மற்றும் பாதுகாப்பு வரம்புகளை மீறாத தேசிய பாதுகாப்பிற்கான AI-இன் அனைத்து சட்டப்பூர்வ பயன்பாடுகளையும் ஆதரிப்பதே அவர்களின் உறுதிப்பாடாகும்.

ஒரு முன்னோடியில்லாத வகைப்பாடு: சட்டப் போர் நெருங்குகிறது

Anthropic-ஐ விநியோகச் சங்கிலி அபாயமாக வகைப்படுத்துவதற்கான செயலாளர் Hegseth-இன் அச்சுறுத்தல் மிகவும் அசாதாரணமான மற்றும் சாத்தியமான சீர்குலைக்கும் நடவடிக்கையாகும். வரலாற்று ரீதியாக, 10 USC 3252 இன் கீழ் அத்தகைய வகைப்பாடுகள் வெளிநாட்டு எதிரிகளுக்கோ அல்லது இராணுவ விநியோகச் சங்கிலிகளின் ஒருமைப்பாட்டிற்கு நேரடி அச்சுறுத்தலை ஏற்படுத்தும் நிறுவனங்களுக்கோ ஒதுக்கப்பட்டன. ஒரு முன்னணி அமெரிக்க AI நிறுவனத்திற்கு, குறிப்பாக அரசாங்க ஒப்பந்தக்காரராகவும் கண்டுபிடிப்பாளராகவும் இருந்துள்ள நிறுவனத்திற்கு இந்த முத்திரையைப் பயன்படுத்துவது முன்னோடியில்லாதது மற்றும் அபாயகரமான முன்மாதிரியை உருவாக்குகிறது.

அத்தகைய ஒரு வகைப்பாடு "சட்டப்பூர்வமாக செல்லாதது" மற்றும் "ஆபத்தான முன்மாதிரியை" உருவாக்குகிறது என்று Anthropic வாதிடுகிறது. AI தவறான பயன்பாட்டைத் தடுப்பதையும் நம்பகத்தன்மையை உறுதி செய்வதையும் நோக்கமாகக் கொண்ட அவர்களின் அறநெறி நிலைப்பாடு, பாரம்பரிய அர்த்தத்தில் விநியோகச் சங்கிலி அபாயத்தை உருவாக்கவில்லை என்று அவர்கள் வாதிடுகிறார்கள். மேலும், 2024 ஜூன் முதல் அமெரிக்க அரசாங்கத்தின் இரகசிய நெட்வொர்க்குகளில் ஈடுபட்டுள்ள இந்த நிறுவனம், இந்த வகைப்பாடு ஒரு நிறுவனத்தின் இணக்கத்தை கட்டாயப்படுத்த வடிவமைக்கப்பட்ட ஒரு அதிகார மீறல் என்று நம்புகிறது.

சாத்தியமான சட்டப் போர், 10 USC 3252 இன் விளக்கம் மற்றும் மேம்பட்ட AI திறன்களுக்கு அதன் பொருத்தம் ஆகியவற்றை சந்தேகத்திற்கு இடமின்றி உற்றுநோக்கும், மேலும் பாதுகாப்பில் AI க்கான எதிர்கால ஒழுங்குமுறை கட்டமைப்புகளை வடிவமைக்கும்.

வாடிக்கையாளர் தாக்கத்தைப் புரிந்துகொள்வது

பதற்றம் அதிகரித்து வரும் நிலையில், Anthropic தனது பல்வேறு வாடிக்கையாளர் தளத்திற்கான விநியோகச் சங்கிலி அபாய வகைப்பாட்டின் நடைமுறை தாக்கங்களைத் தெளிவுபடுத்துவதற்கு நடவடிக்கை எடுத்துள்ளது. செயலாளர் Hegseth-இன் அறிக்கைகள் இராணுவத்துடன் வணிகம் செய்யும் எவருக்கும் பரந்த கட்டுப்பாடுகளைக் குறிப்பிட்டாலும், Anthropic 10 USC 3252 குறித்த தனது புரிதலின் அடிப்படையில் மிகவும் நுட்பமான விளக்கத்தை வழங்குகிறது.

அத்தகைய வகைப்பாட்டின் சட்டப்பூர்வ அதிகாரம் வரையறுக்கப்பட்டதாக நிறுவனம் தனது வாடிக்கையாளர்களுக்கு உறுதியளிக்கிறது:

வாடிக்கையாளர் பிரிவுபோர் துறை விநியோகச் சங்கிலி அபாய வகைப்பாட்டின் தாக்கம் (முறையாக ஏற்றுக்கொள்ளப்பட்டால்)
தனிப்பட்ட வாடிக்கையாளர்கள்முற்றிலும் பாதிக்கப்படாது. claude.ai வழியாக Claude ஐ அணுகலாம்.
Anthropic உடனான வணிக ஒப்பந்தங்கள்முற்றிலும் பாதிக்கப்படாது. API அல்லது தயாரிப்புகள் வழியாக Claude ஐப் பயன்படுத்தலாம்.
போர் துறை ஒப்பந்ததாரர்கள்போர் துறை ஒப்பந்த வேலைகளில் Claude ஐப் பயன்படுத்துவதை மட்டுமே பாதிக்கும்.
போர் துறை ஒப்பந்ததாரர்கள் (பிற வாடிக்கையாளர்களுக்காக/பயன்பாடுகளுக்காக)பாதிக்கப்படாது. போர் துறை அல்லாத ஒப்பந்தங்கள் அல்லது உள் பயன்பாட்டிற்கு Claude ஐப் பயன்படுத்த அனுமதிக்கப்படுகிறது.

போர் துறை செயலாளர், நேரடி போர் துறை ஒப்பந்தங்களுக்கு அப்பால் இந்த கட்டுப்பாடுகளை நீட்டிக்க சட்டப்பூர்வ அதிகாரம் கொண்டிருக்கவில்லை என்று Anthropic வலியுறுத்துகிறது. இந்த தெளிவுபடுத்துதல் அதன் பரந்த பயனர்கள் மற்றும் கூட்டாளர்களின் சுற்றுச்சூழலுக்கான எந்தவொரு நிச்சயமற்ற தன்மையையும் அல்லது இடையூறையும் தணிக்க முயல்கிறது. இந்த "அசாதாரண நிகழ்வுகளின்" கீழ் கூட, அதன் வாடிக்கையாளர்களைப் பாதுகாப்பதற்கும், ஒரு சுமூகமான மாற்றத்தை நோக்கி செயல்படுவதற்கும் நிறுவனத்தின் விற்பனை மற்றும் ஆதரவு குழுக்கள் தயாராக உள்ளன.

AI நிர்வாகம் மற்றும் தொழில்துறை உரையாடலுக்கான பரந்த தாக்கங்கள்

Anthropic மற்றும் போர் துறைக்கு இடையேயான பகிரங்க மோதல், AI துறையின் அரசாங்கம் மற்றும் தேசிய பாதுகாப்புடனான உறவில் ஒரு முதிர்ச்சியடைந்த கட்டத்தைக் குறிக்கிறது. இரட்டைப் பயன்பாட்டுத் தொழில்நுட்பங்கள் தொடர்பான AI நிர்வாகம் குறித்த விரிவான கொள்கைகளின் அவசரத் தேவையை இது அடிக்கோடிட்டுக் காட்டுகிறது. Anthropic-இன் "எந்தவொரு விநியோகச் சங்கிலி அபாய வகைப்பாட்டையும் நீதிமன்றத்தில் சவால் செய்வதற்கான" விருப்பம், குறிப்பிடத்தக்க அழுத்தங்களுக்கு மத்தியிலும் அறநெறிக் கொள்கைகளில் ஒரு வலுவான பெருநிறுவன உறுதிப்பாட்டை வெளிப்படுத்துகிறது.

இந்தச் சூழ்நிலை, AI உருவாக்குநர்கள் தங்கள் படைப்புகளின் அறநெறி வரம்புகளை வரையறுப்பதில் மிகவும் தீவிரமான பங்கை வகிக்க வேண்டிய அழுத்தத்தையும் எடுத்துக்காட்டுகிறது, இது தொழில்நுட்ப மேம்பாட்டிலிருந்து செயலில் உள்ள கொள்கை வாதத்திற்கு மாறுகிறது. Claude போன்ற சக்திவாய்ந்த மாதிரிகளின் பயன்பாட்டைச் சுற்றியுள்ள சிக்கலான அறநெறி கேள்விகளுடன் தொழில் increasingly போராடுகிறது. நிறுவனங்கள் தீங்கிழைக்கும் AI பயன்பாடுகளைத் தடுப்பதற்கான முறைகள் மற்றும் அவர்களின் தொழில்நுட்பங்கள் நன்மை பயக்கும் நோக்கங்களுக்காகப் பயன்படுத்தப்படுவதை உறுதிசெய்வதில் தீவிரமாக செயல்படுகின்றன.

இந்த நிலைப்பாட்டின் விளைவு, பிற அதிநவீன AI நிறுவனங்கள் உலகளவில் பாதுகாப்பு முகமைகளுடன் எவ்வாறு தொடர்பு கொள்கின்றன என்பதை கணிசமாக பாதிக்கக்கூடும். தொழில்நுட்ப வல்லுநர்கள், அறநெறிவாதிகள், கொள்கை வகுப்பாளர்கள் மற்றும் இராணுவத் தலைவர்கள் இடையே தேசிய நலன்களுக்குப் பணிபுரியும், ஆனால் அடிப்படை மதிப்புகள் அல்லது பாதுகாப்பிற்கு அச்சுறுத்தல் இல்லாத பொறுப்பான AI கண்டுபிடிப்புகளுக்கு ஒரு பொதுவான அடிப்படையை நிறுவுவதற்கு இது ஒரு வலுவான மற்றும் வெளிப்படையான உரையாடலை ஊக்குவிக்கக்கூடும். அதன் வாடிக்கையாளர்களைப் பாதுகாப்பதற்கும், இந்த "அசாதாரண நிகழ்வுகளின்" கீழ் கூட, ஒரு சுமூகமான மாற்றத்தை நோக்கி செயல்படுவதற்கும் Anthropic-இன் உறுதி, அறநெறி ஒருமைப்பாடு மற்றும் நடைமுறை தொடர்ச்சி இரண்டிற்கான அர்ப்பணிப்பைப் பிரதிபலிக்கிறது.

அடிக்கடி கேட்கப்படும் கேள்விகள்

Anthropic மற்றும் போர் துறைக்கு இடையேயான முக்கிய சர்ச்சை என்ன?
Anthropic தனது மேம்பட்ட AI மாதிரியான Claude-ஐ இரண்டு குறிப்பிட்ட நோக்கங்களுக்காகப் பயன்படுத்த அனுமதி மறுத்ததே அடிப்படை கருத்து வேறுபாடு ஆகும்: அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்பு மற்றும் முழு தன்னாட்சி ஆயுத அமைப்புகளில் பயன்படுத்துதல். இந்த இரண்டு விதிவிலக்குகளும் பேச்சுவார்த்தைகளில் ஒரு முட்டுக்கட்டையை ஏற்படுத்தியுள்ளன, இதன் காரணமாக போர் துறை செயலாளர் Pete Hegseth, Anthropic-ஐ விநியோகச் சங்கிலி அபாயமாக வகைப்படுத்தக் கருதுகிறார். அடிப்படை உரிமைகள் மற்றும் அதிநவீன AI-இன் நம்பகத்தன்மையின் தற்போதைய வரம்புகள் குறித்த முக்கிய அறநெறிக் கொள்கைகளின் அடிப்படையிலேயே தனது நிலைப்பாடு அமைந்துள்ளதாக Anthropic வலியுறுத்துகிறது.
AI பயன்பாட்டிற்கான Anthropic-இன் இரண்டு குறிப்பிட்ட அறநெறிக் கொள்கை விதிவிலக்குகள் யாவை?
Claude உட்பட தனது AI மாதிரிகளின் சட்டப்பூர்வ பயன்பாட்டிற்கு இரண்டு முக்கியமான விதிவிலக்குகளை Anthropic தொடர்ந்து வெளிப்படுத்தி வருகிறது. முதல் விதிவிலக்கு, அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்புக்காக தனது AI-ஐப் பயன்படுத்துவதைத் தடை செய்கிறது, இது அடிப்படை உரிமைகளை மீறுவதாகக் குறிப்பிடுகிறது. இரண்டாவது விதிவிலக்கு, முழு தன்னாட்சி ஆயுதங்களில் தனது AI-ஐப் பயன்படுத்துவதைத் தடுக்கிறது, ஏனெனில் தற்போதைய அதிநவீன AI மாதிரிகள், மனித மேற்பார்வை இல்லாமல் அத்தகைய முக்கியமான, உயிர்-மரண சூழல்களில் பயன்படுத்தத் தேவையான நம்பகத்தன்மை மற்றும் பாதுகாப்பு உறுதிமொழிகளைக் கொண்டிருக்கவில்லை என்று வாதிடுகிறது. இந்த விதிவிலக்குகள்தான் போர் துறையுடனான அவர்களின் தற்போதைய சர்ச்சையின் அடித்தளமாக அமைகின்றன.
AI-இன் இந்த குறிப்பிட்ட பயன்பாடுகளை Anthropic ஏன் எதிர்க்கிறது?
Anthropic-இன் எதிர்ப்புகள் அறநெறி மற்றும் நடைமுறை கவலைகள் இரண்டிலும் வேரூன்றியுள்ளன. முழு தன்னாட்சி ஆயுதங்களைப் பொறுத்தவரை, இன்றைய அதிநவீன AI மாதிரிகள், போர் வீரர்கள் மற்றும் பொதுமக்கள் இருவரின் பாதுகாப்பையும் உறுதிசெய்யும் அளவுக்கு நம்பகமானவை அல்ல என்று நிறுவனம் நம்புகிறது. அத்தகைய முக்கியமான பயன்பாடுகளில் கணிக்க முடியாத தன்மை மற்றும் பிழை ஏற்படுவதற்கான சாத்தியக்கூறுகள் பேரழிவு தரும் விளைவுகளை ஏற்படுத்தக்கூடும். பெருந்திரளான உள்நாட்டு கண்காணிப்பைப் பொறுத்தவரை, இதை Anthropic அடிப்படை உரிமைகளின் நேரடி மீறலாகக் கருதுகிறது, இது ஜனநாயகக் கொள்கைகள் மற்றும் அமெரிக்க குடிமக்களின் தனியுரிமை எதிர்பார்ப்புகளுக்கு முரணானது. அவர்களின் நிலைப்பாடு, மனித மதிப்புகள் மற்றும் பாதுகாப்பை மதிக்கும் பொறுப்பான AI வளர்ச்சிக்கு ஒரு உறுதிப்பாட்டை அடிக்கோடிட்டுக் காட்டுகிறது.
'விநியோகச் சங்கிலி அபாய வகைப்பாடு' என்றால் என்ன, அதன் சாத்தியமான விளைவுகள் என்ன?
10 USC 3252 இன் கீழ் ஒரு 'விநியோகச் சங்கிலி அபாய வகைப்பாடு' என்பது பொதுவாக தேசிய பாதுகாப்புக்கோ அல்லது இராணுவ விநியோகச் சங்கிலிகளின் ஒருமைப்பாட்டிற்கோ அச்சுறுத்தலை ஏற்படுத்தும் நிறுவனங்களுக்கு ஒதுக்கப்பட்ட ஒரு நடவடிக்கையாகும், இது பெரும்பாலும் வெளிநாட்டு எதிரிகளுடன் தொடர்புடையது. Anthropic-க்கு எதிராக இது முறையாக ஏற்றுக்கொள்ளப்பட்டால், போர் துறையின் ஒப்பந்தங்களுக்குள் Claude-ஐப் பயன்படுத்துவதை சட்டப்பூர்வமாக கட்டுப்படுத்தும். இராணுவத்துடன் வணிகம் செய்யும் நிறுவனங்களுக்கு பரந்த கட்டுப்பாடுகளை செயலாளர் Hegseth குறிப்பிட்டாலும், சட்டப்பூர்வ அதிகாரம் அதன் நோக்கத்தை நேரடி போர் துறை நடவடிக்கைகளுக்கு மட்டுமே கட்டுப்படுத்துகிறது, வணிக ஒப்பந்தங்கள் அல்லது பிற அரசு வேலைகளுக்கு அல்ல என்று Anthropic வாதிடுகிறது. இந்த வகைப்பாடு ஒரு அமெரிக்க நிறுவனத்திற்கு வரலாற்று ரீதியாக முன்னோடியில்லாதது.
இந்த வகைப்பாடு Anthropic-இன் வாடிக்கையாளர்களை எவ்வாறு பாதிக்கும்?
இந்த வகைப்பாடு, முறையாக ஏற்றுக்கொள்ளப்பட்டால், வரையறுக்கப்பட்ட தாக்கத்தையே ஏற்படுத்தும் என்று Anthropic தெளிவுபடுத்துகிறது. தனிப்பட்ட வாடிக்கையாளர்களுக்கும் வணிக ஒப்பந்தங்கள் கொண்டவர்களுக்கும், API, claude.ai அல்லது பிற தயாரிப்புகள் மூலம் Claude-ஐ அணுகுவது முற்றிலும் பாதிக்கப்படாது. போர் துறை ஒப்பந்ததாரர்களுக்கு, இந்த வகைப்பாடு போர் துறை ஒப்பந்த வேலைகளில் Claude-ஐப் பயன்படுத்துவதற்கு மட்டுமே பொருந்தும். அவர்களின் வேறு எந்த நோக்கங்களுக்காகவோ அல்லது பிற வாடிக்கையாளர்களுடனோ Claude-ஐப் பயன்படுத்துவது கட்டுப்படுத்தப்படாமல் இருக்கும். நேரடி இராணுவ ஒப்பந்தங்களுக்கு அப்பால் பரந்த கட்டுப்பாடுகளை விதிக்க போர் துறை செயலாளருக்கு சட்டப்பூர்வ அதிகாரம் இல்லை என்று Anthropic வலியுறுத்துகிறது.
இந்த சாத்தியமான வகைப்பாட்டிற்கு பதிலளிக்கும் விதமாக Anthropic-இன் அடுத்த கட்ட நடவடிக்கை என்ன?
முறையான விநியோகச் சங்கிலி இடர் வகைப்பாட்டை நீதிமன்றத்தில் சவால் செய்ய Anthropic தனது உறுதியான நோக்கத்தை பகிரங்கமாக அறிவித்துள்ளது. அத்தகைய வகைப்பாடு 'சட்டப்பூர்வமாக செல்லாதது' மற்றும் அரசாங்கத்துடன் பேச்சுவார்த்தை நடத்தும் எந்தவொரு அமெரிக்க நிறுவனத்திற்கும் 'ஆபத்தான முன்மாதிரியை' உருவாக்கும் என்று நிறுவனம் நம்புகிறது. இந்த சட்ட சவால், அவர்களின் அறநெறிக் கொள்கைகளுக்கான அசைக்க முடியாத உறுதிப்பாட்டையும், அதிகாரத்தின் மீறலாக அவர்கள் கருதும் ஒன்றிலிருந்து தங்கள் செயல்பாடுகளையும் வாடிக்கையாளர் உறவுகளையும் பாதுகாப்பதற்கான அவர்களின் உறுதியையும் அடிக்கோடிட்டுக் காட்டுகிறது.
இந்தச் சூழ்நிலை AI துறைக்கு என்ன பரந்த முன்மாதிரியை உருவாக்குகிறது?
இந்தச் சூழ்நிலை முழு AI துறைக்கும், குறிப்பாக தேசிய பாதுகாப்பு சூழல்களில் AI வளர்ச்சி மற்றும் பயன்பாட்டின் அறநெறி வரம்புகள் தொடர்பாக ஒரு குறிப்பிடத்தக்க முன்மாதிரியை உருவாக்குகிறது. இது தொழில்நுட்ப திறன்கள், அறநெறி பொறுப்பு மற்றும் அரசாங்க தேவைகளுக்கு இடையே வளர்ந்து வரும் பதற்றத்தை எடுத்துக்காட்டுகிறது. Anthropic-இன் சவாலான நிலைப்பாடு, மற்ற AI நிறுவனங்களையும் அனுமதிக்கப்பட்ட பயன்பாடுகளில் தங்கள் சொந்த வரம்புகளை வரையறுக்க ஊக்குவிக்கக்கூடும், இது AI நெறிமுறைகள், மனித உரிமைகள் மற்றும் தன்னாட்சி அமைப்புகளின் வளர்ச்சி தொடர்பான எதிர்கால விதிமுறைகள் மற்றும் தொழில்துறை விதிமுறைகளை வடிவமைக்கக்கூடும். AI-இன் சமூகத் தாக்கம் குறித்த இறுதிப் பொறுப்பு எங்கு உள்ளது என்பது குறித்த விவாதத்தை இது மேம்படுத்துகிறது.

புதுப்பிப்புகளைப் பெறுங்கள்

சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.

பகிர்