வெளிப்படையான பாதுகாப்பு கவசங்களுடன் செயற்கை நுண்ணறிவு பாதுகாப்பை வலுப்படுத்தும் OpenAI மற்றும் போர்ப்படைத் துறை
சான் பிரான்சிஸ்கோ, CA – மார்ச் 3, 2026 – OpenAI, போர்ப்படைத் துறை (DoW) உடனான தனது ஒப்பந்தத்தில் ஒரு குறிப்பிடத்தக்க புதுப்பிப்பை அறிவித்துள்ளது, வகைப்படுத்தப்பட்ட சூழல்களில் மேம்பட்ட செயற்கை நுண்ணறிவு அமைப்புகளை வரிசைப்படுத்துவது தொடர்பான கடுமையான பாதுகாப்பு கவசங்களை இது வலுப்படுத்துகிறது. இந்த முக்கிய ஒத்துழைப்பு, பொறுப்பான செயற்கை நுண்ணறிவு பயன்பாட்டிற்கு ஒரு பகிரப்பட்ட உறுதிப்பாட்டை அடிக்கோடிட்டுக் காட்டுகிறது, குறிப்பாக முக்கியமான தேசிய பாதுகாப்பு பயன்பாடுகளைப் பொறுத்தவரை. மார்ச் 2, 2026 அன்று இறுதி செய்யப்பட்ட புதுப்பிக்கப்பட்ட ஒப்பந்தம், அமெரிக்க குடிமக்களின் உள்நாட்டு கண்காணிப்பை வெளிப்படையாக தடை செய்கிறது மற்றும் தன்னாட்சி ஆயுத அமைப்புகளில் செயற்கை நுண்ணறிவின் பயன்பாட்டை கட்டுப்படுத்துகிறது, இது பாதுகாப்பில் செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் நெறிமுறை ஒருங்கிணைப்பிற்கு ஒரு புதிய தரத்தை அமைக்கிறது.
இந்த மேம்படுத்தப்பட்ட ஒப்பந்தத்தின் முக்கிய அம்சம், முன்னர் புரிந்துகொள்ளப்பட்டதை வெளிப்படையாக்குவது, செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் நெறிமுறை வரம்புகள் தொடர்பாக எந்தவொரு தெளிவின்மையையும் நீக்குகிறது. தனியுரிமை மற்றும் பாதுகாப்பு கொள்கைகளை கடுமையாக நிலைநிறுத்தும் அதே வேளையில், அமெரிக்க ராணுவத்திற்கு அதிநவீன கருவிகளை வழங்குவதற்காக இந்த கட்டமைப்பு வடிவமைக்கப்பட்டுள்ளது என்று OpenAI வலியுறுத்துகிறது.
வகைப்படுத்தப்பட்ட செயற்கை நுண்ணறிவு வரிசைப்படுத்தல்களுக்கான பாதுகாப்புகளை மறுவரையறை செய்தல்
சாத்தியமான கவலைகளை நிவர்த்தி செய்வதற்கான ஒரு முன்முயற்சியாக, OpenAI மற்றும் போர்ப்படைத் துறை தங்கள் ஒப்பந்தத்தில் கூடுதல் மொழியைச் சேர்த்துள்ளன, இது செயற்கை நுண்ணறிவு வரிசைப்படுத்தலின் வரம்புகளை குறிப்பாக தெளிவுபடுத்துகிறது. இந்த புதிய விதி, வணிகரீதியாக பெறப்பட்ட தனிப்பட்ட தகவல்களைப் பெறுதல் அல்லது பயன்படுத்துதல் உட்பட, அமெரிக்க குடிமக்களின் உள்நாட்டு கண்காணிப்பிற்காக OpenAI இன் கருவிகள் பயன்படுத்தப்படாது என்று திட்டவட்டமாக கூறுகிறது. மேலும், NSA போன்ற அதன் உளவு நிறுவனங்கள் இந்த ஒப்பந்தத்தில் இருந்து விலக்கப்பட்டுள்ளன என்றும், எந்தவொரு சேவை வழங்கலுக்கும் முற்றிலும் புதிய விதிமுறைகள் தேவைப்படும் என்றும் DoW உறுதிப்படுத்தியுள்ளது.
ஒப்பந்தத்தில் புதுப்பிக்கப்பட்ட மொழி விவரிக்கிறது:
- "அமெரிக்க அரசியலமைப்பின் நான்காவது திருத்தம், 1947 தேசிய பாதுகாப்பு சட்டம், 1978 FISA சட்டம் உள்ளிட்ட பொருந்தக்கூடிய சட்டங்களுக்கு இணங்க, செயற்கை நுண்ணறிவு அமைப்பு அமெரிக்க நபர்கள் மற்றும் குடிமக்களின் உள்நாட்டு கண்காணிப்பிற்காக வேண்டுமென்றே பயன்படுத்தப்படாது."
- "சந்தேகத்தைத் தவிர்க்க, வணிகரீதியாக பெறப்பட்ட தனிப்பட்ட அல்லது அடையாளம் காணக்கூடிய தகவல்களைப் பெறுதல் அல்லது பயன்படுத்துதல் உட்பட, அமெரிக்க நபர்கள் அல்லது குடிமக்களை வேண்டுமென்றே கண்காணிப்பது, உளவு பார்ப்பது அல்லது கண்காணிப்பதை இந்த வரம்பு தடை செய்வதாகத் துறை புரிந்துகொள்கிறது."
இந்த தொலைநோக்கு அணுகுமுறை, மற்ற அதிநவீன செயற்கை நுண்ணறிவு ஆய்வகங்கள் போர்ப்படைத் துறையுடன் ஈடுபட ஒரு தெளிவான பாதையை உருவாக்குவதை நோக்கமாகக் கொண்டுள்ளது, இது ஒத்துழைப்பை வளர்ப்பதோடு மாறாத நெறிமுறை தரங்களையும் பராமரிக்கிறது.
OpenAI இன் முக்கிய நெறிமுறை தூண்கள்: மூன்று சிவப்பு கோடுகள்
தேசிய பாதுகாப்பு போன்ற முக்கியமான களங்களில் அதன் ஒத்துழைப்புகளை நிர்வகிக்கும் மூன்று அடிப்படை "சிவப்பு கோடுகளின்" கீழ் OpenAI செயல்படுகிறது. இந்த கொள்கைகள், மற்ற முன்னணி செயற்கை நுண்ணறிவு ஆராய்ச்சி நிறுவனங்களால் பெரும்பாலும் பகிரப்படுகின்றன, போர்ப்படைத் துறையுடனான ஒப்பந்தத்திற்கு இவை மையமானவை:
- கூட்டு உள்நாட்டு கண்காணிப்பு இல்லை: அமெரிக்க குடிமக்களை பரவலாக கண்காணிக்க OpenAI தொழில்நுட்பம் பயன்படுத்தப்படாது.
- தன்னாட்சி ஆயுத அமைப்புகள் இல்லை: மனித கட்டுப்பாடு இல்லாமல் தன்னாட்சி ஆயுதங்களை இயக்குவதற்கு தொழில்நுட்பம் தடைசெய்யப்பட்டுள்ளது.
- அதிக ஆபத்துள்ள தானியங்கு முடிவுகள் இல்லை: மனித மேற்பார்வை தேவைப்படும் முக்கியமான தானியங்கு முடிவுகளுக்கு (எ.கா., 'சமூக கடன்' அமைப்புகள்) OpenAI கருவிகள் பயன்படுத்தப்படாது.
பயன்பாட்டுக் கொள்கைகளை மட்டுமே முதன்மையாக நம்பியிருக்கும் அணுகுமுறைகளுடன் ஒப்பிடும்போது, OpenAI இன் பல அடுக்கு உத்தி ஏற்றுக்கொள்ள முடியாத பயன்பாடுகளுக்கு எதிராக மிகவும் வலுவான பாதுகாப்பை வழங்குகிறது என்று OpenAI வலியுறுத்துகிறது. கடுமையான தொழில்நுட்ப மற்றும் ஒப்பந்தப் பாதுகாப்புகள் மீதான இந்த வலியுறுத்தம், பாதுகாப்பு செயற்கை நுண்ணறிவின் வளர்ந்து வரும் சூழலில் அதன் ஒப்பந்தத்தை வேறுபடுத்துகிறது.
பல அடுக்கு பாதுகாப்பு: கட்டமைப்பு, ஒப்பந்தம் மற்றும் மனித நிபுணத்துவம்
போர்ப்படைத் துறையுடனான OpenAI இன் ஒப்பந்தத்தின் வலிமை, பாதுகாப்பிற்கான அதன் விரிவான, பல அடுக்கு அணுகுமுறையில் உள்ளது. இதில் அடங்கும்:
- வரிசைப்படுத்தல் கட்டமைப்பு: ஒப்பந்தம் கிளவுட்-மட்டும் வரிசைப்படுத்தலை கட்டாயப்படுத்துகிறது, OpenAI அதன் பாதுகாப்பு அடுக்கு மீது முழு விருப்பத்தையும் பராமரிப்பதையும், 'பாதுகாப்பு கவசங்கள் இல்லாத' மாதிரிகளை வரிசைப்படுத்துவதைத் தடுப்பதையும் இது உறுதி செய்கிறது. இந்த கட்டமைப்பு, தன்னாட்சி கொடிய ஆயுதங்கள் போன்ற பயன்பாட்டு வழக்குகளை இயற்கையாகவே கட்டுப்படுத்துகிறது, இதற்கு பொதுவாக எட்ஜ் வரிசைப்படுத்தல் தேவைப்படுகிறது. வகைப்படுத்திகள் உட்பட, இந்த சிவப்பு கோடுகள் மீறப்படவில்லை என்பதை உறுதிப்படுத்த சுயாதீன சரிபார்ப்பு வழிமுறைகள் உள்ளன.
- வலுவான ஒப்பந்த மொழி: ஒப்பந்தம் அனுமதிக்கப்பட்ட பயன்பாடுகளை வெளிப்படையாக விவரிக்கிறது, "பொருந்தக்கூடிய சட்டம், செயல்பாட்டுத் தேவைகள் மற்றும் நன்கு நிறுவப்பட்ட பாதுகாப்பு மற்றும் மேற்பார்வைக் நெறிமுறைகளுக்கு இணங்க அனைத்து சட்டபூர்வமான நோக்கங்களுக்கும்" இணங்குவதை இது கோருகிறது. இது நான்காவது திருத்தம், 1947 தேசிய பாதுகாப்பு சட்டம், 1978 FISA சட்டம் மற்றும் DoD Directive 3000.09 போன்ற அமெரிக்க சட்டங்களை குறிப்பாகக் குறிப்பிடுகிறது. மிக முக்கியமாக, இது தன்னாட்சி ஆயுதங்களை சுயாதீனமாக இயக்குவதையும், அமெரிக்க குடிமக்களின் தனிப்பட்ட தகவல்களை கட்டுப்பாடற்ற முறையில் கண்காணிப்பதையும் தடை செய்கிறது.
- செயற்கை நுண்ணறிவு நிபுணர் ஈடுபாடு: அங்கீகரிக்கப்பட்ட OpenAI பொறியாளர்கள் மற்றும் பாதுகாப்பு மற்றும் சீரமைப்பு ஆராய்ச்சியாளர்கள் முன் வரிசைப்படுத்தப்பட்டு 'செயல்பாட்டில்' இருப்பார்கள். இந்த நேரடி மனித மேற்பார்வை ஒரு கூடுதல் அடுக்கு உத்தரவாதத்தை வழங்குகிறது, காலப்போக்கில் அமைப்புகளை மேம்படுத்தவும், ஒப்பந்தத்தின் கடுமையான விதிமுறைகளுக்கு இணங்குவதையும் தீவிரமாக சரிபார்க்கவும் உதவுகிறது.
இந்த ஒருங்கிணைந்த அணுகுமுறை, தொழில்நுட்ப, சட்ட மற்றும் மனித பாதுகாப்புகள் அனைத்தும் தவறான பயன்பாட்டைத் தடுக்க இணைந்து செயல்படுவதை உறுதி செய்கிறது.
| சிவப்பு கோட்டு வகை | OpenAI இன் பாதுகாப்பு நடவடிக்கைகள் |
|---|---|
| கூட்டு உள்நாட்டு கண்காணிப்பு | வெளிப்படையான ஒப்பந்தத் தடை, நான்காவது திருத்தம், FISA, தேசிய பாதுகாப்பு சட்டம் ஆகியவற்றுடன் சீரமைப்பு; NSA/உளவு முகமைகளை நோக்கத்தில் இருந்து விலக்கு; கிளவுட்-மட்டும் வரிசைப்படுத்தல் தரவு அணுகலில் வரம்புகள்; OpenAI பணியாளர்கள் செயல்பாட்டில் சரிபார்ப்பு. |
| தன்னாட்சி ஆயுத அமைப்புகள் | கிளவுட்-மட்டும் வரிசைப்படுத்தல் (கொடிய தன்னாட்சிக்கு எட்ஜ் வரிசைப்படுத்தல் இல்லை); தன்னாட்சி ஆயுதங்களை சுயாதீனமாக இயக்குவதற்கு வெளிப்படையான ஒப்பந்தத் தடை; சரிபார்ப்பு/உறுதிப்படுத்தலுக்கு DoD Directive 3000.09 ஐ பின்பற்றுதல்; மேற்பார்வைக்கு OpenAI பணியாளர்கள் செயல்பாட்டில். |
| அதிக ஆபத்துள்ள தானியங்கு முடிவுகள் | அதிக ஆபத்துள்ள முடிவுகளுக்கு மனித ஒப்புதல் தேவைப்படும் வெளிப்படையான ஒப்பந்த மொழி; OpenAI அதன் பாதுகாப்பு அடுக்கு மீது முழு கட்டுப்பாட்டையும் கொண்டுள்ளது, 'பாதுகாப்பு கவசங்கள் இல்லாத' மாதிரிகளைத் தடுக்கிறது; முக்கியமான முடிவுகள் சம்பந்தப்படும் இடங்களில் மனித மேற்பார்வை பராமரிக்கப்படுவதை உறுதிப்படுத்த OpenAI பணியாளர்கள் செயல்பாட்டில். |
கவலைகளை நிவர்த்தி செய்தல் மற்றும் எதிர்கால செயற்கை நுண்ணறிவு ஒத்துழைப்பை உருவாக்குதல்
மேம்பட்ட செயற்கை நுண்ணறிவின் உள்ளார்ந்த அபாயங்களை OpenAI ஒப்புக்கொள்கிறது மற்றும் எதிர்காலத்தை வழிநடத்த அரசாங்கத்திற்கும் செயற்கை நுண்ணறிவு ஆய்வகங்களுக்கும் இடையிலான ஆழமான ஒத்துழைப்பு அவசியம் என்று கருதுகிறது. போர்ப்படைத் துறையுடன் இணைந்து செயல்படுவது, அமெரிக்க ராணுவம் அதிநவீன கருவிகளை அணுகுவதோடு, இந்த தொழில்நுட்பங்கள் பொறுப்புடன் வரிசைப்படுத்தப்படுவதையும் உறுதி செய்கிறது.
'அமெரிக்க ராணுவத்திற்கு அதன் பணிக்கு வலுவான செயற்கை நுண்ணறிவு மாதிரிகள் முற்றிலும் தேவை என்று நாங்கள் நினைக்கிறோம், குறிப்பாக தங்கள் அமைப்புகளில் செயற்கை நுண்ணறிவு தொழில்நுட்பங்களை பெருகிய முறையில் ஒருங்கிணைக்கும் சாத்தியமான எதிரிகளிடமிருந்து வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு மத்தியில்,' என்று OpenAI கூறியது. இந்த அர்ப்பணிப்பு, செயல்திறனுக்காக தொழில்நுட்ப பாதுகாப்புகளை சமரசம் செய்ய மறுக்கும் மாறாத உறுதிப்பாட்டுடன் சமநிலைப்படுத்தப்பட்டுள்ளது, இது ஒரு பொறுப்பான அணுகுமுறை மிக முக்கியமானது என்பதை வலியுறுத்துகிறது.
இந்த ஒப்பந்தம் பதட்டங்களைக் குறைப்பதையும், செயற்கை நுண்ணறிவு சமூகத்திற்குள் பரந்த ஒத்துழைப்பை வளர்ப்பதையும் நோக்கமாகக் கொண்டுள்ளது. அனைத்து செயற்கை நுண்ணறிவு நிறுவனங்களுக்கும் அதே பாதுகாப்பு விதிமுறைகள் கிடைக்க வேண்டும் என்று OpenAI கோரியுள்ளது, இதன் மூலம் தொழில்துறை முழுவதும் ஒத்த பொறுப்பான கூட்டாண்மைகளை எளிதாக்க நம்புகிறது. இது OpenAI இன் பரந்த மூலோபாயத்தின் ஒரு பகுதியாகும், மைக்ரோசாப்ட் உடனான தொடர்ச்சியான கூட்டாண்மை மற்றும் அனைவருக்கும் செயற்கை நுண்ணறிவை அளவிடுதல் நோக்கிய முயற்சிகளால் இது நிரூபிக்கப்பட்டுள்ளது.
பாதுகாப்பு செயற்கை நுண்ணறிவு ஈடுபாட்டிற்கான ஒரு புதிய தரத்தை அமைத்தல்
Anthropic போன்ற பிற ஆய்வகங்களால் விவாதிக்கப்பட்ட முந்தைய ஏற்பாடுகளுடன் ஒப்பிடும்போது, OpenAI இன் ஒப்பந்தம் வகைப்படுத்தப்பட்ட செயற்கை நுண்ணறிவு வரிசைப்படுத்தல்களுக்கு ஒரு உயர்ந்த தரத்தை அமைக்கிறது என்று OpenAI நம்புகிறது. இந்த நம்பிக்கை, உட்பொதிக்கப்பட்ட அடிப்படை பாதுகாப்புகளிலிருந்து உருவாகிறது: OpenAI இன் பாதுகாப்பு அடுக்கின் ஒருமைப்பாட்டைப் பராமரிக்கும் கிளவுட்-மட்டும் வரிசைப்படுத்தல், வெளிப்படையான ஒப்பந்த உத்தரவாதங்கள் மற்றும் அங்கீகரிக்கப்பட்ட OpenAI பணியாளர்களின் செயலில் ஈடுபாடு.
இந்த விரிவான கட்டமைப்பு, குறிப்பிடப்பட்ட சிவப்பு கோடுகள் — கூட்டு உள்நாட்டு கண்காணிப்பு மற்றும் தன்னாட்சி ஆயுதக் கட்டுப்பாட்டைத் தடுத்தல் — வலுவாக செயல்படுத்தப்படுவதை உறுதி செய்கிறது. தற்போதுள்ள சட்டங்களை வெளிப்படையாகக் குறிப்பிடும் ஒப்பந்த மொழி, எதிர்காலத்தில் கொள்கைகள் மாறினாலும், OpenAI இன் அமைப்புகளின் பயன்பாடு அசல், கடுமையான தரங்களுக்கு இன்னும் இணங்க வேண்டும் என்பதை உறுதி செய்கிறது. இந்த முன்முயற்சியான நிலைப்பாடு, மிகவும் கோரக்கூடிய தேசிய பாதுகாப்பு சூழல்களிலும் கூட, பாதுகாப்பு, நெறிமுறைகள் மற்றும் ஜனநாயக மதிப்புகளுக்கு முன்னுரிமை அளிக்கும் வகையில் சக்திவாய்ந்த செயற்கை நுண்ணறிவு தொழில்நுட்பங்களை உருவாக்குவதற்கும் வரிசைப்படுத்துவதற்கும் OpenAI இன் உறுதிப்பாட்டை அடிக்கோடிட்டுக் காட்டுகிறது.
அடிக்கடி கேட்கப்படும் கேள்விகள்
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
புதுப்பிப்புகளைப் பெறுங்கள்
சமீபத்திய AI செய்திகளை மின்னஞ்சலில் பெறுங்கள்.
