Code Velocity
AI सुरक्षा

एन्थ्रॉपिक ने AI पर युद्ध सचिव की अवहेलना की, अधिकारों और सुरक्षा का हवाला दिया

·4 मिनट पढ़ें·Anthropic·मूल स्रोत
शेयर करें
Anthropic का AI नैतिकता को लेकर युद्ध विभाग के संभावित आपूर्ति श्रृंखला जोखिम पदनाम के संबंध में आधिकारिक बयान।

एन्थ्रॉपिक AI नैतिकता को लेकर युद्ध विभाग के खिलाफ दृढ़ खड़ा है

एक अभूतपूर्व कदम में, जिसने तकनीकी और रक्षा क्षेत्रों में हलचल मचा दी है, AI लीडर Anthropic ने युद्ध विभाग (DoW) को संभावित "आपूर्ति श्रृंखला जोखिम" पदनाम को लेकर सार्वजनिक रूप से चुनौती दी है। यह संघर्ष Anthropic द्वारा अपने उन्नत AI मॉडल, Claude, का दो विशिष्ट अनुप्रयोगों: अमेरिकियों की बड़े पैमाने पर घरेलू निगरानी और पूर्णतः स्वायत्त हथियारों में तैनाती के लिए उपयोग की अनुमति देने से अटूट इनकार से उत्पन्न हुआ है। यह गतिरोध, जिसकी घोषणा युद्ध सचिव Pete Hegseth ने 27 फरवरी, 2026 को X के माध्यम से की थी, AI नैतिकता, राष्ट्रीय सुरक्षा और कॉर्पोरेट जिम्मेदारी के बारे में चल रही बहस में एक महत्वपूर्ण मोड़ है।

Anthropic का कहना है कि उसकी स्थिति न केवल नैतिक है बल्कि सार्वजनिक विश्वास और सुरक्षा के लिए भी महत्वपूर्ण है, और उसने ऐसे किसी भी पदनाम को कानूनी रूप से चुनौती देने की कसम खाई है। इस मामले में कंपनी की पारदर्शिता अग्रणी AI के सैन्य और निगरानी अनुप्रयोगों के संबंध में स्पष्ट दिशानिर्देशों और मजबूत संवाद की बढ़ती आवश्यकता को उजागर करती है।

नैतिक 'रेड लाइन': निगरानी और स्वायत्त हथियार

विवाद के मूल में राष्ट्रीय सुरक्षा के लिए अपने AI मॉडल के वैध उपयोग के संबंध में Anthropic के दो विशिष्ट अपवाद हैं। ये अपवाद, जिन्होंने कथित तौर पर युद्ध विभाग के साथ महीनों की बातचीत को रोक दिया है, वे हैं:

  1. अमेरिकियों की बड़े पैमाने पर घरेलू निगरानी: Anthropic का मानना है कि अपने ही नागरिकों की व्यापक निगरानी के लिए AI का उपयोग मौलिक अधिकारों और लोकतांत्रिक सिद्धांतों का गंभीर उल्लंघन है। कंपनी निजता को नागरिक स्वतंत्रताओं का एक महत्वपूर्ण आधार मानती है, और इस तरीके से AI की तैनाती उस नींव को कमजोर कर देगी।
  2. पूर्णतः स्वायत्त हथियार: कंपनी दृढ़ता से कहती है कि Claude सहित वर्तमान अग्रणी AI मॉडल, मानव हस्तक्षेप के बिना जीवन-मरण के निर्णय लेने वाली प्रणालियों में तैनाती के लिए अभी पर्याप्त रूप से विश्वसनीय नहीं हैं। Anthropic चेतावनी देता है कि ऐसी अविश्वसनीयता, दुखद रूप से अमेरिकी युद्धकर्मियों और निर्दोष नागरिकों दोनों को खतरे में डाल सकती है। यह रुख जटिल, उच्च-दांव वाले वातावरण में उन्नत मॉडल की अप्रत्याशित प्रकृति के बारे में AI समुदाय भर में बढ़ती चिंताओं के अनुरूप है।

Anthropic जोर देता है कि इन संकीर्ण अपवादों ने, उसके ज्ञान के अनुसार, किसी भी मौजूदा सरकारी मिशन को बाधित नहीं किया है। कंपनी का अमेरिकी राष्ट्रीय सुरक्षा प्रयासों का समर्थन करने का एक सिद्ध इतिहास रहा है, जिसने जून 2024 से वर्गीकृत अमेरिकी सरकारी नेटवर्क में अपने मॉडल तैनात किए हैं। उनकी प्रतिबद्धता राष्ट्रीय सुरक्षा के लिए AI के सभी वैध उपयोगों का समर्थन करना है जो इन महत्वपूर्ण नैतिक और सुरक्षा सीमाओं को पार नहीं करते हैं।

एक अभूतपूर्व पदनाम: कानूनी लड़ाई सामने

सचिव Hegseth द्वारा Anthropic को आपूर्ति श्रृंखला जोखिम के रूप में नामित करने की धमकी एक अत्यधिक असामान्य और संभावित रूप से विघटनकारी कार्रवाई है। ऐतिहासिक रूप से, 10 USC 3252 के तहत ऐसे पदनाम विदेशी विरोधियों या उन संस्थाओं के लिए आरक्षित रहे हैं जिन्हें सैन्य आपूर्ति श्रृंखलाओं की अखंडता के लिए सीधा खतरा माना जाता है। इस लेबल को एक अमेरिकी कंपनी पर लागू करना, विशेष रूप से एक ऐसी कंपनी जो सरकारी ठेकेदार और नवप्रवर्तक रही है, अभूतपूर्व है और एक खतरनाक मिसाल कायम करता है।

Anthropic अपनी प्रतिक्रिया में स्पष्ट है: वह अदालत में किसी भी आपूर्ति श्रृंखला जोखिम पदनाम को चुनौती देगा। कंपनी का तर्क है कि ऐसा पदनाम "कानूनी रूप से गलत" होगा और सरकार के साथ बातचीत करने वाली कंपनियों को डराने का प्रयास होगा। यह कानूनी लड़ाई, यदि यह साकार होती है, तो प्रौद्योगिकी नवप्रवर्तकों और राष्ट्रीय सुरक्षा तंत्रों के बीच शक्ति संतुलन को फिर से परिभाषित कर सकती है, विशेष रूप से AI के नैतिक विकास और तैनाती के संबंध में। निहितार्थ Anthropic से भी आगे तक फैले हुए हैं, जो संभावित रूप से प्रभावित कर सकते हैं कि अन्य AI कंपनियां रक्षा अनुबंधों में कैसे संलग्न होती हैं और नैतिक दुविधाओं से कैसे निपटती हैं।

ग्राहक प्रभाव को विस्तार से समझाना

Anthropic की प्राथमिक चिंताओं में से एक उसके विविध ग्राहक आधार के लिए संभावित आपूर्ति श्रृंखला जोखिम पदनाम के व्यावहारिक निहितार्थों को स्पष्ट करना रहा है। जबकि सचिव Hegseth के बयानों में व्यापक प्रतिबंधों का संकेत था, Anthropic 10 USC 3252 की अपनी समझ के आधार पर अधिक सूक्ष्म व्याख्या प्रदान करता है।

कंपनी अपने ग्राहकों को आश्वस्त करती है कि ऐसे पदनाम का कानूनी अधिकार सीमित है:

ग्राहक खंडDoW आपूर्ति श्रृंखला जोखिम पदनाम का प्रभाव (यदि औपचारिक रूप से अपनाया जाता है)
व्यक्तिगत ग्राहकपूरी तरह अप्रभावित। claude.ai के माध्यम से Claude तक पहुंच बनी रहेगी।
Anthropic के साथ वाणिज्यिक अनुबंधपूरी तरह अप्रभावित। API या उत्पादों के माध्यम से Claude का उपयोग बना रहेगा।
युद्ध विभाग के ठेकेदारकेवल युद्ध विभाग के अनुबंध कार्य पर Claude के उपयोग को प्रभावित करेगा।
DoW ठेकेदार (अन्य ग्राहकों/उपयोगों के लिए)अप्रभावित। गैर-DoW अनुबंधों या आंतरिक उपयोग के लिए Claude का उपयोग अनुमत है।

Anthropic इस बात पर जोर देता है कि युद्ध सचिव के पास इन प्रतिबंधों को सीधे DoW अनुबंधों से आगे बढ़ाने का वैधानिक अधिकार नहीं है। इस स्पष्टीकरण का उद्देश्य उपयोगकर्ताओं और भागीदारों के अपने विशाल पारिस्थितिकी तंत्र के लिए किसी भी अनिश्चितता या व्यवधान को कम करना है। कंपनी की बिक्री और सहायता टीमें किसी भी आगे के प्रश्नों का समाधान करने के लिए तैयार हैं।

AI शासन और उद्योग संवाद के लिए व्यापक निहितार्थ

Anthropic और युद्ध विभाग के बीच सार्वजनिक टकराव AI उद्योग के सरकार और राष्ट्रीय सुरक्षा के साथ संबंधों में एक परिपक्व चरण का संकेत देता है। यह AI शासन पर व्यापक नीतियों की महत्वपूर्ण आवश्यकता को रेखांकित करता है, विशेष रूप से दोहरे उपयोग वाली प्रौद्योगिकियों के संबंध में। Anthropic की "अदालत में किसी भी आपूर्ति श्रृंखला जोखिम पदनाम को चुनौती देने" की इच्छा नैतिक सिद्धांतों के प्रति एक मजबूत कॉर्पोरेट प्रतिबद्धता को दर्शाती है, भले ही महत्वपूर्ण दबाव का सामना करना पड़े।

यह स्थिति AI डेवलपर्स पर बढ़ती दबाव को भी उजागर करती है कि वे अपनी रचनाओं की नैतिक सीमाओं को परिभाषित करने में अधिक सक्रिय भूमिका निभाएं, तकनीकी विकास से आगे बढ़कर सक्रिय नीति वकालत करें। उद्योग Claude जैसे शक्तिशाली मॉडल की तैनाती से संबंधित जटिल नैतिक प्रश्नों से लगातार जूझ रहा है। कंपनियां दुर्भावनापूर्ण AI उपयोगों को बाधित करने के तरीकों पर सक्रिय रूप से काम कर रही हैं और यह सुनिश्चित कर रही हैं कि उनकी प्रौद्योगिकियों का उपयोग लाभकारी उद्देश्यों के लिए किया जाए।

इस गतिरोध का परिणाम विश्व स्तर पर अन्य अग्रणी AI कंपनियों के रक्षा एजेंसियों के साथ बातचीत करने के तरीके को काफी हद तक प्रभावित कर सकता है। यह प्रौद्योगिकीविदों, नीतिशास्त्रियों, नीति निर्माताओं और सैन्य नेताओं के बीच एक अधिक मजबूत और पारदर्शी संवाद को प्रोत्साहित कर सकता है ताकि जिम्मेदार AI नवाचार के लिए एक सामान्य आधार स्थापित किया जा सके जो मौलिक मूल्यों या सुरक्षा से समझौता किए बिना राष्ट्रीय हितों की सेवा करता है। Anthropic का अपने ग्राहकों की रक्षा करने और इन "असाधारण घटनाओं" के तहत भी एक सुचारु परिवर्तन की दिशा में काम करने का संकल्प नैतिक अखंडता और व्यावहारिक निरंतरता दोनों के प्रति समर्पण को दर्शाता है।

अक्सर पूछे जाने वाले प्रश्न

Anthropic और युद्ध विभाग के बीच मुख्य विवाद क्या है?
एन्थ्रॉपिक द्वारा अपने उन्नत AI मॉडल, Claude, का दो विशिष्ट उद्देश्यों: अमेरिकी नागरिकों की बड़े पैमाने पर घरेलू निगरानी और पूर्णतः स्वायत्त हथियार प्रणालियों में तैनाती के लिए उपयोग करने की अनुमति से इनकार करने से ही यह मूलभूत असहमति उत्पन्न हुई है। इन दो अपवादों के कारण वार्ताओं में गतिरोध आ गया है, जिसके कारण युद्ध सचिव पीट हेगसेथ एन्थ्रॉपिक को आपूर्ति श्रृंखला जोखिम के रूप में नामित करने पर विचार कर रहे हैं। एन्थ्रॉपिक का कहना है कि उसकी स्थिति मौलिक अधिकारों और अग्रणी AI विश्वसनीयता की वर्तमान सीमाओं से संबंधित मुख्य नैतिक सिद्धांतों पर आधारित है।
AI उपयोग के लिए Anthropic के दो विशिष्ट नैतिक अपवाद क्या हैं?
एन्थ्रॉपिक ने अपने AI मॉडल, Claude सहित, के वैध उपयोग के लिए लगातार दो महत्वपूर्ण अपवादों को स्पष्ट किया है। पहला अपवाद मौलिक अधिकारों के उल्लंघन का हवाला देते हुए अमेरिकी नागरिकों की बड़े पैमाने पर घरेलू निगरानी के लिए उनके AI के उपयोग को प्रतिबंधित करता है। दूसरा अपवाद पूर्णतः स्वायत्त हथियारों में उनके AI के उपयोग को रोकता है, यह तर्क देते हुए कि वर्तमान अग्रणी AI मॉडल में मानव पर्यवेक्षण के बिना ऐसे महत्वपूर्ण, जीवन-मरण की स्थितियों में तैनात होने के लिए आवश्यक विश्वसनीयता और सुरक्षा आश्वासन की कमी है। ये अपवाद युद्ध विभाग के साथ उनके वर्तमान विवाद का आधार बनते हैं।
Anthropic AI के इन विशिष्ट उपयोगों पर आपत्ति क्यों करता है?
एन्थ्रॉपिक की आपत्तियाँ नैतिक और व्यावहारिक दोनों चिंताओं में निहित हैं। पूर्णतः स्वायत्त हथियारों के संबंध में, कंपनी का मानना है कि आज के अग्रणी AI मॉडल युद्धकर्मियों और नागरिकों दोनों की सुरक्षा सुनिश्चित करने के लिए पर्याप्त रूप से विश्वसनीय नहीं हैं। ऐसे महत्वपूर्ण अनुप्रयोगों में अप्रत्याशितता और त्रुटि की संभावना विनाशकारी परिणाम दे सकती है। बड़े पैमाने पर घरेलू निगरानी के लिए, एन्थ्रॉपिक इसे मौलिक अधिकारों का सीधा उल्लंघन मानता है, जो लोकतांत्रिक सिद्धांतों और अमेरिकी नागरिकों की गोपनीयता की अपेक्षाओं के अनुरूप नहीं है। उनका रुख जिम्मेदार AI विकास के प्रति प्रतिबद्धता को रेखांकित करता है जो मानवीय मूल्यों और सुरक्षा का सम्मान करता है।
'आपूर्ति श्रृंखला जोखिम पदनाम' क्या है, और इसके संभावित निहितार्थ क्या हैं?
10 USC 3252 के तहत 'आपूर्ति श्रृंखला जोखिम पदनाम' एक ऐसा उपाय है जो आमतौर पर उन संस्थाओं के लिए आरक्षित होता है जो राष्ट्रीय सुरक्षा या सैन्य आपूर्ति श्रृंखलाओं की अखंडता के लिए खतरा पैदा करती हैं, जो अक्सर विदेशी विरोधियों से जुड़ी होती हैं। यदि एन्थ्रॉपिक के खिलाफ इसे औपचारिक रूप से अपनाया जाता है, तो यह युद्ध विभाग के अनुबंधों के भीतर Claude के उपयोग को कानूनी रूप से प्रतिबंधित कर देगा। जबकि सचिव हेगसेथ ने सेना के साथ व्यापार करने वाली कंपनियों पर व्यापक प्रतिबंधों का संकेत दिया, एन्थ्रॉपिक का तर्क है कि वैधानिक अधिकार इसकी सीमा को सीधे युद्ध विभाग के जुड़ाव तक सीमित करता है, न कि वाणिज्यिक अनुबंधों या अन्य सरकारी कार्यों तक। यह पदनाम एक अमेरिकी कंपनी के लिए ऐतिहासिक रूप से अभूतपूर्व है।
यह पदनाम Anthropic के ग्राहकों को कैसे प्रभावित करेगा?
एन्थ्रॉपिक स्पष्ट करता है कि यदि यह पदनाम औपचारिक रूप से अपनाया जाता है, तो इसका सीमित प्रभाव होगा। व्यक्तिगत ग्राहकों और वाणिज्यिक अनुबंधों वाले लोगों के लिए, API, claude.ai, या अन्य उत्पादों के माध्यम से Claude तक पहुंच पूरी तरह अप्रभावित रहेगी। युद्ध विभाग के ठेकेदारों के लिए, यह पदनाम केवल युद्ध विभाग के अनुबंध कार्य पर Claude के उनके उपयोग पर लागू होगा। किसी अन्य उद्देश्य के लिए या अन्य ग्राहकों के साथ Claude का उनका उपयोग अप्रतिबंधित रहेगा। एन्थ्रॉपिक इस बात पर जोर देता है कि युद्ध सचिव के पास सीधे सैन्य अनुबंधों से परे व्यापक प्रतिबंध लगाने का वैधानिक अधिकार नहीं है।
इस संभावित पदनाम के जवाब में Anthropic का अगला कदम क्या है?
एन्थ्रॉपिक ने अदालत में किसी भी औपचारिक आपूर्ति श्रृंखला जोखिम पदनाम को चुनौती देने का अपना दृढ़ इरादा सार्वजनिक रूप से व्यक्त किया है। कंपनी का मानना है कि ऐसा पदनाम 'कानूनी रूप से गलत' होगा और सरकार के साथ बातचीत करने वाली किसी भी अमेरिकी कंपनी के लिए 'एक खतरनाक मिसाल' कायम करेगा। यह कानूनी चुनौती उनके नैतिक सिद्धांतों के प्रति उनकी अटूट प्रतिबद्धता और उनके संचालन व ग्राहक संबंधों को सत्ता के अतिचार के रूप में वे जो मानते हैं उससे बचाने के उनके दृढ़ संकल्प को रेखांकित करती है।
यह स्थिति AI उद्योग के लिए क्या व्यापक मिसाल कायम करती है?
यह स्थिति संपूर्ण AI उद्योग के लिए एक महत्वपूर्ण मिसाल कायम करती है, खासकर राष्ट्रीय सुरक्षा संदर्भों में AI विकास और तैनाती की नैतिक सीमाओं के संबंध में। यह तकनीकी क्षमताओं, नैतिक जिम्मेदारी और सरकारी मांगों के बीच बढ़ते तनाव को उजागर करता है। एन्थ्रॉपिक का अवज्ञापूर्ण रुख अन्य AI कंपनियों को अनुमेय उपयोगों पर अपनी 'रेड लाइन' खींचने के लिए प्रोत्साहित कर सकता है, जिससे AI नैतिकता, मानवाधिकारों और स्वायत्त प्रणालियों के विकास के आसपास भविष्य के नियमों और उद्योग मानदंडों को आकार मिल सकता है। यह इस बहस को ऊपर उठाता है कि AI के सामाजिक प्रभाव के लिए अंतिम जिम्मेदारी कहाँ निहित है।

अपडेट रहें

नवीनतम AI समाचार अपने इनबॉक्स में पाएं।

शेयर करें