OpenAI और युद्ध विभाग ने स्पष्ट सुरक्षा प्रतिबंधों के साथ एआई सुरक्षा को मजबूत किया
सैन फ्रांसिस्को, सीए – 3 मार्च, 2026 – OpenAI ने युद्ध विभाग (DoW) के साथ अपने समझौते में एक महत्वपूर्ण अपडेट की घोषणा की है, जिसमें वर्गीकृत वातावरण में उन्नत एआई प्रणालियों के परिनियोजन के आसपास कड़े सुरक्षा प्रतिबंधों को मजबूत किया गया है। यह ऐतिहासिक सहयोग जिम्मेदार एआई उपयोग के प्रति साझा प्रतिबद्धता को रेखांकित करता है, विशेष रूप से संवेदनशील राष्ट्रीय सुरक्षा अनुप्रयोगों के संबंध में। 2 मार्च, 2026 को अंतिम रूप दिया गया अद्यतन समझौता, अमेरिकी व्यक्तियों की घरेलू निगरानी को स्पष्ट रूप से प्रतिबंधित करता है और स्वायत्त हथियार प्रणालियों में एआई के उपयोग को प्रतिबंधित करता है, जो रक्षा में कृत्रिम बुद्धिमत्ता के नैतिक एकीकरण के लिए एक नया मानक स्थापित करता है।
इस बेहतर समझौते का मूल यह है कि पहले जो समझा गया था उसे स्पष्ट किया जाए, जिससे एआई प्रौद्योगिकी की नैतिक सीमाओं के संबंध में कोई अस्पष्टता न रहे। OpenAI इस बात पर जोर देता है कि यह ढांचा अमेरिकी सेना को अत्याधुनिक उपकरण प्रदान करने के लिए डिज़ाइन किया गया है, जबकि गोपनीयता और सुरक्षा सिद्धांतों को सख्ती से बनाए रखता है।
वर्गीकृत एआई परिनियोजन के लिए सुरक्षा उपायों को फिर से परिभाषित करना
संभावित चिंताओं को दूर करने के लिए एक सक्रिय कदम में, OpenAI और युद्ध विभाग ने अपने समझौते में अतिरिक्त भाषा शामिल की है, विशेष रूप से एआई परिनियोजन की सीमाओं को स्पष्ट किया है। यह नया खंड स्पष्ट रूप से बताता है कि OpenAI के उपकरणों का उपयोग अमेरिकी व्यक्तियों की घरेलू निगरानी के लिए नहीं किया जाएगा, जिसमें व्यावसायिक रूप से प्राप्त व्यक्तिगत जानकारी की खरीद या उपयोग के माध्यम से भी शामिल है। इसके अलावा, DoW ने पुष्टि की है कि इसकी खुफिया एजेंसियां, जैसे कि NSA, इस समझौते से बाहर हैं और किसी भी सेवा प्रावधान के लिए पूरी तरह से नए नियमों की आवश्यकता होगी।
समझौते में अद्यतन भाषा का विवरण:
- 'संयुक्त राज्य अमेरिका के संविधान के चौथे संशोधन, राष्ट्रीय सुरक्षा अधिनियम 1947, FISA अधिनियम 1978 सहित लागू कानूनों के अनुरूप, एआई प्रणाली का उपयोग अमेरिकी व्यक्तियों और नागरिकों की घरेलू निगरानी के लिए जानबूझकर नहीं किया जाएगा।'
- 'संदेह से बचने के लिए, विभाग इस सीमा को अमेरिकी व्यक्तियों या नागरिकों की जानबूझकर ट्रैकिंग, निगरानी, या निगरानी को प्रतिबंधित करने के लिए समझता है, जिसमें व्यावसायिक रूप से प्राप्त व्यक्तिगत या पहचान योग्य जानकारी की खरीद या उपयोग के माध्यम से भी शामिल है।'
इस दूरंदेशी दृष्टिकोण का उद्देश्य अन्य अग्रणी एआई लैब के लिए युद्ध विभाग के साथ जुड़ने का एक स्पष्ट मार्ग स्थापित करना है, सहयोग को बढ़ावा देना और अटूट नैतिक मानकों को बनाए रखना है।
OpenAI के मुख्य नैतिक स्तंभ: तीन लाल रेखाएँ
OpenAI तीन मूलभूत 'लाल रेखाओं' के तहत काम करता है जो राष्ट्रीय सुरक्षा जैसे संवेदनशील क्षेत्रों में इसके सहयोग को नियंत्रित करती हैं। ये सिद्धांत, जो बड़े पैमाने पर अन्य अग्रणी एआई अनुसंधान संस्थानों द्वारा साझा किए जाते हैं, युद्ध विभाग के साथ समझौते के केंद्र में हैं:
- कोई व्यापक घरेलू निगरानी नहीं: OpenAI तकनीक का उपयोग अमेरिकी नागरिकों की व्यापक निगरानी के लिए नहीं किया जाएगा।
- कोई स्वायत्त हथियार प्रणाली नहीं: मानवीय नियंत्रण के बिना स्वायत्त हथियारों को निर्देशित करने से तकनीक प्रतिबंधित है।
- कोई उच्च-दांव वाले स्वचालित निर्णय नहीं: OpenAI उपकरणों का उपयोग महत्वपूर्ण स्वचालित निर्णयों (जैसे, 'सोशल क्रेडिट' सिस्टम) के लिए नहीं किया जाएगा जिनके लिए मानवीय निरीक्षण की आवश्यकता होती है।
OpenAI का दावा है कि इसकी बहु-स्तरीय रणनीति केवल उपयोग नीतियों पर निर्भर रहने वाले दृष्टिकोणों की तुलना में अस्वीकार्य उपयोगों के खिलाफ अधिक मजबूत सुरक्षा प्रदान करती है। कड़े तकनीकी और संविदात्मक सुरक्षा उपायों पर यह जोर रक्षा एआई के विकसित होते परिदृश्य में इसके समझौते को अलग करता है।
बहु-स्तरीय सुरक्षा: वास्तुकला, अनुबंध, और मानवीय विशेषज्ञता
युद्ध विभाग के साथ OpenAI के समझौते की ताकत सुरक्षा के लिए इसके व्यापक, बहु-स्तरीय दृष्टिकोण में निहित है। इसमें शामिल है:
- परिनियोजन वास्तुकला: यह समझौता केवल क्लाउड-आधारित परिनियोजन को अनिवार्य करता है, यह सुनिश्चित करता है कि OpenAI अपने सुरक्षा स्टैक पर पूर्ण विवेक बनाए रखे और 'गार्डरेल्स ऑफ' मॉडल के परिनियोजन को रोके। यह वास्तुकला स्वायत्त घातक हथियारों जैसे उपयोग के मामलों को स्वाभाविक रूप से प्रतिबंधित करती है, जिन्हें आमतौर पर एज परिनियोजन की आवश्यकता होती है। स्वतंत्र सत्यापन तंत्र, जिसमें क्लासिफायर शामिल हैं, यह सुनिश्चित करने के लिए मौजूद हैं कि इन लाल रेखाओं को पार नहीं किया जाता है।
- मजबूत संविदात्मक भाषा: अनुबंध स्पष्ट रूप से अनुमेय उपयोगों का विवरण देता है, 'सभी वैध उद्देश्यों, लागू कानून, परिचालन आवश्यकताओं, और अच्छी तरह से स्थापित सुरक्षा और निरीक्षण प्रोटोकॉल के अनुरूप' पालन की आवश्यकता है। यह विशेष रूप से अमेरिकी कानूनों जैसे चौथे संशोधन, राष्ट्रीय सुरक्षा अधिनियम 1947, FISA अधिनियम 1978, और DoD निर्देश 3000.09 को संदर्भित करता है। महत्वपूर्ण रूप से, यह स्वायत्त हथियारों के स्वतंत्र निर्देशन और अमेरिकी व्यक्तियों की निजी जानकारी की अनियंत्रित निगरानी को प्रतिबंधित करता है।
- एआई विशेषज्ञ की भागीदारी: अधिकृत OpenAI इंजीनियर और सुरक्षा और संरेखण शोधकर्ता आगे तैनात किए जाएंगे और 'लूप में' रहेंगे। यह प्रत्यक्ष मानवीय निरीक्षण आश्वासन की एक अतिरिक्त परत प्रदान करता है, समय के साथ सिस्टम को बेहतर बनाने में मदद करता है और समझौते की सख्त शर्तों के अनुपालन को सक्रिय रूप से सत्यापित करता है।
यह एकीकृत दृष्टिकोण सुनिश्चित करता है कि तकनीकी, कानूनी और मानवीय सुरक्षा उपाय सभी दुरुपयोग को रोकने के लिए मिलकर काम कर रहे हैं।
| लाल रेखा श्रेणी | OpenAI के सुरक्षा उपाय |
|---|---|
| व्यापक घरेलू निगरानी | स्पष्ट संविदात्मक निषेध, चौथे संशोधन, FISA, राष्ट्रीय सुरक्षा अधिनियम के साथ संरेखण; NSA/खुफिया एजेंसियों को दायरे से बाहर रखना; डेटा पहुंच पर क्लाउड-ओनली परिनियोजन सीमाएं; OpenAI कर्मी लूप में सत्यापन। |
| स्वायत्त हथियार प्रणालियाँ | केवल क्लाउड-आधारित परिनियोजन (घातक स्वायत्तता के लिए कोई एज परिनियोजन नहीं); स्वायत्त हथियारों के स्वतंत्र निर्देशन के खिलाफ स्पष्ट संविदात्मक निषेध; सत्यापन/मान्यता के लिए DoD निर्देश 3000.09 का पालन; निरीक्षण के लिए OpenAI कर्मी लूप में। |
| उच्च-दांव वाले स्वचालित निर्णय | उच्च-दांव वाले निर्णयों के लिए मानवीय अनुमोदन की आवश्यकता वाली स्पष्ट संविदात्मक भाषा; OpenAI अपने सुरक्षा स्टैक पर पूर्ण नियंत्रण रखता है, 'गार्डरेल्स ऑफ' मॉडल को रोकता है; महत्वपूर्ण निर्णय शामिल होने पर मानवीय निरीक्षण सुनिश्चित करने के लिए OpenAI कर्मी लूप में। |
चिंताओं का समाधान और भविष्य के एआई सहयोग को मजबूत करना
OpenAI उन्नत एआई के अंतर्निहित जोखिमों को स्वीकार करता है और भविष्य को नेविगेट करने के लिए सरकार और एआई लैब के बीच गहन सहयोग को आवश्यक मानता है। युद्ध विभाग के साथ जुड़ना अमेरिकी सेना को अत्याधुनिक उपकरणों तक पहुंचने की अनुमति देता है, जबकि यह सुनिश्चित करता है कि इन प्रौद्योगिकियों को जिम्मेदारी से तैनात किया जाए।
'हम सोचते हैं कि अमेरिकी सेना को अपने मिशन का समर्थन करने के लिए निश्चित रूप से मजबूत एआई मॉडल की आवश्यकता है, खासकर संभावित विरोधियों से बढ़ते खतरों के सामने जो तेजी से एआई प्रौद्योगिकियों को अपनी प्रणालियों में एकीकृत कर रहे हैं,' OpenAI ने कहा। यह प्रतिबद्धता प्रदर्शन के लिए तकनीकी सुरक्षा उपायों से समझौता करने से अटूट इनकार के साथ संतुलित है, इस बात पर जोर देते हुए कि एक जिम्मेदार दृष्टिकोण सर्वोपरि है।
इस समझौते का उद्देश्य तनाव को कम करना और एआई समुदाय के भीतर व्यापक सहयोग को बढ़ावा देना भी है। OpenAI ने अनुरोध किया है कि सभी एआई कंपनियों के लिए समान सुरक्षात्मक शर्तें उपलब्ध कराई जाएं, जिससे उद्योग भर में समान जिम्मेदार साझेदारियों को सुविधाजनक बनाने की उम्मीद है। यह OpenAI की व्यापक रणनीति का हिस्सा है, जैसा कि इसकी माइक्रोसॉफ्ट के साथ जारी साझेदारी और सभी के लिए एआई का विस्तार के प्रयासों से प्रदर्शित होता है।
रक्षा एआई जुड़ाव के लिए एक नया मानक स्थापित करना
OpenAI का मानना है कि इसका समझौता पिछले समझौतों की तुलना में वर्गीकृत एआई परिनियोजन के लिए एक उच्च मानक स्थापित करता है, जिसमें Anthropic जैसी अन्य लैब द्वारा चर्चा किए गए भी शामिल हैं। यह विश्वास अंतर्निहित मूलभूत सुरक्षा उपायों से उपजा है: क्लाउड-ओनली परिनियोजन जो OpenAI के सुरक्षा स्टैक की अखंडता को बनाए रखता है, स्पष्ट संविदात्मक गारंटी, और अधिकृत OpenAI कर्मियों की सक्रिय भागीदारी।
यह व्यापक ढांचा यह सुनिश्चित करता है कि निर्दिष्ट लाल रेखाएँ — व्यापक घरेलू निगरानी और स्वायत्त हथियारों के नियंत्रण को रोकना — मजबूती से लागू की जाती हैं। मौजूदा कानूनों का स्पष्ट रूप से उल्लेख करने वाली संविदात्मक भाषा यह सुनिश्चित करती है कि भले ही भविष्य में नीतियां बदल जाएं, OpenAI की प्रणालियों का उपयोग अभी भी मूल, सख्त मानकों के अनुरूप होना चाहिए। यह सक्रिय रुख OpenAI की शक्तिशाली एआई प्रौद्योगिकियों को ऐसे तरीके से विकसित और तैनात करने की प्रतिबद्धता को रेखांकित करता है जो सबसे चुनौतीपूर्ण राष्ट्रीय सुरक्षा संदर्भों में भी सुरक्षा, नैतिकता और लोकतांत्रिक मूल्यों को प्राथमिकता देता है।
अक्सर पूछे जाने वाले प्रश्न
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
अपडेट रहें
नवीनतम AI समाचार अपने इनबॉक्स में पाएं।
