AI நெறிமுறைகள் தொடர்பாக போர் துறைக்கு எதிராக Anthropic உறுதியாக நிற்கிறது
தொழில்நுட்ப மற்றும் பாதுகாப்புத் துறைகளில் அலைகளை ஏற்படுத்திய ஒரு முன்னோடியில்லாத நடவடிக்கையில், AI முன்னணி நிறுவனமான Anthropic, 'விநியோகச் சங்கிலி இடர்' வகைப்பாடு குறித்து போர் துறைக்கு (DoW) பகிரங்கமாக சவால் விடுத்துள்ளது. அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்பு மற்றும் முழு தன்னாட்சி ஆயுதங்களில் பயன்படுத்துதல் ஆகிய இரண்டு குறிப்பிட்ட பயன்பாடுகளுக்கு தனது மேம்பட்ட AI மாதிரியான Claude-ஐப் பயன்படுத்த Anthropic தொடர்ந்து மறுத்ததிலிருந்தே இந்த மோதல் உருவாகிறது. 2026 பிப்ரவரி 27 அன்று X மூலம் போர் துறை செயலாளர் Pete Hegseth அறிவித்த இந்த நிலைப்பாடு, AI நெறிமுறைகள், தேசிய பாதுகாப்பு மற்றும் பெருநிறுவன பொறுப்பு குறித்த விவாதத்தில் ஒரு முக்கியமான திருப்புமுனையாகும்.
தனது நிலைப்பாடு அறநெறி ரீதியானது மட்டுமல்ல, பொது நம்பிக்கை மற்றும் பாதுகாப்புக்கு இன்றியமையாதது என்றும் Anthropic வலியுறுத்துகிறது, மேலும் அத்தகைய எந்தவொரு வகைப்பாட்டையும் சட்டப்பூர்வமாக எதிர்த்துப் போராடவும் உறுதியளிக்கிறது. இந்த விஷயத்தில் நிறுவனத்தின் வெளிப்படைத்தன்மை, அதிநவீன AI-இன் இராணுவம் மற்றும் கண்காணிப்புப் பயன்பாடுகள் குறித்து தெளிவான வழிகாட்டுதல்கள் மற்றும் வலுவான உரையாடலின் அவசரத் தேவையை எடுத்துக்காட்டுகிறது.
அறநெறி வரம்பு: கண்காணிப்பு மற்றும் தன்னாட்சி ஆயுதங்கள்
சர்ச்சையின் மையத்தில் Anthropic-இன் இரண்டு குறிப்பிட்ட விதிவிலக்குகள் உள்ளன, அவை தேசிய பாதுகாப்புக்காக அதன் AI மாதிரிகளை சட்டப்பூர்வமாகப் பயன்படுத்துவது தொடர்பானவை. போர் துறையுடனான மாதக்கணக்கான பேச்சுவார்த்தைகளை நிறுத்தி வைத்ததாகக் கூறப்படும் இந்த விதிவிலக்குகள்:
- அமெரிக்க குடிமக்களைப் பெருந்திரளாக உள்நாட்டு கண்காணிப்பு: AI-ஐப் பயன்படுத்தி அதன் சொந்த குடிமக்களை பரவலாகக் கண்காணிப்பது அடிப்படை உரிமைகள் மற்றும் ஜனநாயகக் கொள்கைகளின் கடுமையான மீறல் என்று Anthropic நம்புகிறது. தனியுரிமையை சிவில் சுதந்திரங்களின் ஒரு மூலக்கல்லாகக் கருதும் நிறுவனம், இந்த முறையில் AI-ஐப் பயன்படுத்துவது அந்த அடித்தளத்தை அரிக்கக்கூடும் என்று கருதுகிறது.
- முழு தன்னாட்சி ஆயுதங்கள்: தற்போதைய அதிநவீன AI மாதிரிகள், Claude உட்பட, மனித தலையீடு இல்லாமல் உயிர்-மரண முடிவுகளை எடுக்கும் அமைப்புகளில் பயன்படுத்தும் அளவுக்கு நம்பகமானவை அல்ல என்று நிறுவனம் உறுதியாகக் கூறுகிறது. அத்தகைய நம்பகத்தன்மையின்மை, Anthropic எச்சரிக்கிறது, அமெரிக்க போர் வீரர்கள் மற்றும் அப்பாவி பொதுமக்கள் இருவரையும் சோகமாக ஆபத்தில் ஆழ்த்தக்கூடும். சிக்கலான, அதிக ஆபத்துள்ள சூழல்களில் மேம்பட்ட மாதிரிகளின் கணிக்க முடியாத தன்மை குறித்த AI சமூகம் முழுவதும் அதிகரித்து வரும் கவலைகளுடன் இந்த நிலைப்பாடு ஒத்துப்போகிறது.
இந்தக் குறுகிய விதிவிலக்குகள், நிறுவனத்திற்குத் தெரிந்தவரை, எந்தவொரு தற்போதைய அரசாங்கப் பணியையும் தடுக்கவில்லை என்று Anthropic வலியுறுத்துகிறது. நிறுவனம், 2024 ஜூன் முதல் அமெரிக்க அரசாங்கத்தின் இரகசிய நெட்வொர்க்குகளில் தனது மாதிரிகளைப் பயன்படுத்தி, அமெரிக்க தேசிய பாதுகாப்பு முயற்சிகளை ஆதரிப்பதற்கான ஒரு நிரூபிக்கப்பட்ட வரலாற்றைக் கொண்டுள்ளது. இந்த முக்கியமான அறநெறி மற்றும் பாதுகாப்பு வரம்புகளை மீறாத தேசிய பாதுகாப்பிற்கான AI-இன் அனைத்து சட்டப்பூர்வ பயன்பாடுகளையும் ஆதரிப்பதே அவர்களின் உறுதிப்பாடாகும்.
ஒரு முன்னோடியில்லாத வகைப்பாடு: சட்டப் போர் நெருங்குகிறது
Anthropic-ஐ விநியோகச் சங்கிலி அபாயமாக வகைப்படுத்துவதற்கான செயலாளர் Hegseth-இன் அச்சுறுத்தல் மிகவும் அசாதாரணமான மற்றும் சாத்தியமான சீர்குலைக்கும் நடவடிக்கையாகும். வரலாற்று ரீதியாக, 10 USC 3252 இன் கீழ் அத்தகைய வகைப்பாடுகள் வெளிநாட்டு எதிரிகளுக்கோ அல்லது இராணுவ விநியோகச் சங்கிலிகளின் ஒருமைப்பாட்டிற்கு நேரடி அச்சுறுத்தலை ஏற்படுத்தும் நிறுவனங்களுக்கோ ஒதுக்கப்பட்டன. ஒரு முன்னணி அமெரிக்க AI நிறுவனத்திற்கு, குறிப்பாக அரசாங்க ஒப்பந்தக்காரராகவும் கண்டுபிடிப்பாளராகவும் இருந்துள்ள நிறுவனத்திற்கு இந்த முத்திரையைப் பயன்படுத்துவது முன்னோடியில்லாதது மற்றும் அபாயகரமான முன்மாதிரியை உருவாக்குகிறது.
அத்தகைய ஒரு வகைப்பாடு "சட்டப்பூர்வமாக செல்லாதது" மற்றும் "ஆபத்தான முன்மாதிரியை" உருவாக்குகிறது என்று Anthropic வாதிடுகிறது. AI தவறான பயன்பாட்டைத் தடுப்பதையும் நம்பகத்தன்மையை உறுதி செய்வதையும் நோக்கமாகக் கொண்ட அவர்களின் அறநெறி நிலைப்பாடு, பாரம்பரிய அர்த்தத்தில் விநியோகச் சங்கிலி அபாயத்தை உருவாக்கவில்லை என்று அவர்கள் வாதிடுகிறார்கள். மேலும், 2024 ஜூன் முதல் அமெரிக்க அரசாங்கத்தின் இரகசிய நெட்வொர்க்குகளில் ஈடுபட்டுள்ள இந்த நிறுவனம், இந்த வகைப்பாடு ஒரு நிறுவனத்தின் இணக்கத்தை கட்டாயப்படுத்த வடிவமைக்கப்பட்ட ஒரு அதிகார மீறல் என்று நம்புகிறது.
சாத்தியமான சட்டப் போர், 10 USC 3252 இன் விளக்கம் மற்றும் மேம்பட்ட AI திறன்களுக்கு அதன் பொருத்தம் ஆகியவற்றை சந்தேகத்திற்கு இடமின்றி உற்றுநோக்கும், மேலும் பாதுகாப்பில் AI க்கான எதிர்கால ஒழுங்குமுறை கட்டமைப்புகளை வடிவமைக்கும்.
வாடிக்கையாளர் தாக்கத்தைப் புரிந்துகொள்வது
பதற்றம் அதிகரித்து வரும் நிலையில், Anthropic தனது பல்வேறு வாடிக்கையாளர் தளத்திற்கான விநியோகச் சங்கிலி அபாய வகைப்பாட்டின் நடைமுறை தாக்கங்களைத் தெளிவுபடுத்துவதற்கு நடவடிக்கை எடுத்துள்ளது. செயலாளர் Hegseth-இன் அறிக்கைகள் இராணுவத்துடன் வணிகம் செய்யும் எவருக்கும் பரந்த கட்டுப்பாடுகளைக் குறிப்பிட்டாலும், Anthropic 10 USC 3252 குறித்த தனது புரிதலின் அடிப்படையில் மிகவும் நுட்பமான விளக்கத்தை வழங்குகிறது.
அத்தகைய வகைப்பாட்டின் சட்டப்பூர்வ அதிகாரம் வரையறுக்கப்பட்டதாக நிறுவனம் தனது வாடிக்கையாளர்களுக்கு உறுதியளிக்கிறது:
| வாடிக்கையாளர் பிரிவு | போர் துறை விநியோகச் சங்கிலி அபாய வகைப்பாட்டின் தாக்கம் (முறையாக ஏற்றுக்கொள்ளப்பட்டால்) |
|---|---|
| தனிப்பட்ட வாடிக்கையாளர்கள் | முற்றிலும் பாதிக்கப்படாது. claude.ai வழியாக Claude ஐ அணுகலாம். |
| Anthropic உடனான வணிக ஒப்பந்தங்கள் | முற்றிலும் பாதிக்கப்படாது. API அல்லது தயாரிப்புகள் வழியாக Claude ஐப் பயன்படுத்தலாம். |
| போர் துறை ஒப்பந்ததாரர்கள் | போர் துறை ஒப்பந்த வேலைகளில் Claude ஐப் பயன்படுத்துவதை மட்டுமே பாதிக்கும். |
| போர் துறை ஒப்பந்ததாரர்கள் (பிற வாடிக்கையாளர்களுக்காக/பயன்பாடுகளுக்காக) | பாதிக்கப்படாது. போர் துறை அல்லாத ஒப்பந்தங்கள் அல்லது உள் பயன்பாட்டிற்கு Claude ஐப் பயன்படுத்த அனுமதிக்கப்படுகிறது. |
போர் துறை செயலாளர், நேரடி போர் துறை ஒப்பந்தங்களுக்கு அப்பால் இந்த கட்டுப்பாடுகளை நீட்டிக்க சட்டப்பூர்வ அதிகாரம் கொண்டிருக்கவில்லை என்று Anthropic வலியுறுத்துகிறது. இந்த தெளிவுபடுத்துதல் அதன் பரந்த பயனர்கள் மற்றும் கூட்டாளர்களின் சுற்றுச்சூழலுக்கான எந்தவொரு நிச்சயமற்ற தன்மையையும் அல்லது இடையூறையும் தணிக்க முயல்கிறது. இந்த "அசாதாரண நிகழ்வுகளின்" கீழ் கூட, அதன் வாடிக்கையாளர்களைப் பாதுகாப்பதற்கும், ஒரு சுமூகமான மாற்றத்தை நோக்கி செயல்படுவதற்கும் நிறுவனத்தின் விற்பனை மற்றும் ஆதரவு குழுக்கள் தயாராக உள்ளன.
AI நிர்வாகம் மற்றும் தொழில்துறை உரையாடலுக்கான பரந்த தாக்கங்கள்
Anthropic மற்றும் போர் துறைக்கு இடையேயான பகிரங்க மோதல், AI துறையின் அரசாங்கம் மற்றும் தேசிய பாதுகாப்புடனான உறவில் ஒரு முதிர்ச்சியடைந்த கட்டத்தைக் குறிக்கிறது. இரட்டைப் பயன்பாட்டுத் தொழில்நுட்பங்கள் தொடர்பான AI நிர்வாகம் குறித்த விரிவான கொள்கைகளின் அவசரத் தேவையை இது அடிக்கோடிட்டுக் காட்டுகிறது. Anthropic-இன் "எந்தவொரு விநியோகச் சங்கிலி அபாய வகைப்பாட்டையும் நீதிமன்றத்தில் சவால் செய்வதற்கான" விருப்பம், குறிப்பிடத்தக்க அழுத்தங்களுக்கு மத்தியிலும் அறநெறிக் கொள்கைகளில் ஒரு வலுவான பெருநிறுவன உறுதிப்பாட்டை வெளிப்படுத்துகிறது.
இந்தச் சூழ்நிலை, AI உருவாக்குநர்கள் தங்கள் படைப்புகளின் அறநெறி வரம்புகளை வரையறுப்பதில் மிகவும் தீவிரமான பங்கை வகிக்க வேண்டிய அழுத்தத்தையும் எடுத்துக்காட்டுகிறது, இது தொழில்நுட்ப மேம்பாட்டிலிருந்து செயலில் உள்ள கொள்கை வாதத்திற்கு மாறுகிறது. Claude போன்ற சக்திவாய்ந்த மாதிரிகளின் பயன்பாட்டைச் சுற்றியுள்ள சிக்கலான அறநெறி கேள்விகளுடன் தொழில் increasingly போராடுகிறது. நிறுவனங்கள் தீங்கிழைக்கும் AI பயன்பாடுகளைத் தடுப்பதற்கான முறைகள் மற்றும் அவர்களின் தொழில்நுட்பங்கள் நன்மை பயக்கும் நோக்கங்களுக்காகப் பயன்படுத்தப்படுவதை உறுதிசெய்வதில் தீவிரமாக செயல்படுகின்றன.
இந்த நிலைப்பாட்டின் விளைவு, பிற அதிநவீன AI நிறுவனங்கள் உலகளவில் பாதுகாப்பு முகமைகளுடன் எவ்வாறு தொடர்பு கொள்கின்றன என்பதை கணிசமாக பாதிக்கக்கூடும். தொழில்நுட்ப வல்லுநர்கள், அறநெறிவாதிகள், கொள்கை வகுப்பாளர்கள் மற்றும் இராணுவத் தலைவர்கள் இடையே தேசிய நலன்களுக்குப் பணிபுரியும், ஆனால் அடிப்படை மதிப்புகள் அல்லது பாதுகாப்பிற்கு அச்சுறுத்தல் இல்லாத பொறுப்பான AI கண்டுபிடிப்புகளுக்கு ஒரு பொதுவான அடிப்படையை நிறுவுவதற்கு இது ஒரு வலுவான மற்றும் வெளிப்படையான உரையாடலை ஊக்குவிக்கக்கூடும். அதன் வாடிக்கையாளர்களைப் பாதுகாப்பதற்கும், இந்த "அசாதாரண நிகழ்வுகளின்" கீழ் கூட, ஒரு சுமூகமான மாற்றத்தை நோக்கி செயல்படுவதற்கும் Anthropic-இன் உறுதி, அறநெறி ஒருமைப்பாடு மற்றும் நடைமுறை தொடர்ச்சி இரண்டிற்கான அர்ப்பணிப்பைப் பிரதிபலிக்கிறது.
அடிக்கடி கேட்கப்படும் கேள்விகள்
Anthropic மற்றும் போர் துறைக்கு இடையேயான முக்கிய சர்ச்சை என்ன?
AI பயன்பாட்டிற்கான Anthropic-இன் இரண்டு குறிப்பிட்ட அறநெறிக் கொள்கை விதிவிலக்குகள் யாவை?
AI-இன் இந்த குறிப்பிட்ட பயன்பாடுகளை Anthropic ஏன் எதிர்க்கிறது?
'விநியோகச் சங்கிலி அபாய வகைப்பாடு' என்றால் என்ன, அதன் சாத்தியமான விளைவுகள் என்ன?
இந்த வகைப்பாடு Anthropic-இன் வாடிக்கையாளர்களை எவ்வாறு பாதிக்கும்?
இந்த சாத்தியமான வகைப்பாட்டிற்கு பதிலளிக்கும் விதமாக Anthropic-இன் அடுத்த கட்ட நடவடிக்கை என்ன?
இந்தச் சூழ்நிலை AI துறைக்கு என்ன பரந்த முன்மாதிரியை உருவாக்குகிறது?
புதுப்பிப்புகளைப் பெறுங்கள்
சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.
