Code Velocity
Süni İntellekt Təhlükəsizliyi

Anthropic Süni İntellektlə Bağlı Müharibə Nazirliyinə Meydan Oxuyur, Hüquqları və Təhlükəsizliyi Əsas Gətirir

·4 dəq oxunma·Anthropic·Orijinal mənbə
Paylaş
Anthropic-in Müharibə Nazirliyinin süni intellekt etikası ilə bağlı potensial təchizat zənciri riski təyinatı haqqında rəsmi bəyanatı.

Anthropic Süni İntellekt Etikası Üzrə Müharibə Nazirliyinə Qarşı Qətiyyətini Qoruyur

Texnologiya və müdafiə sektorlarında böyük əks-səda doğuran görünməmiş bir addımla, süni intellekt lideri Anthropic, Müharibə Nazirliyinə (DoW) potensial "təchizat zənciri riski" təyinatı ilə bağlı açıq şəkildə meydan oxumuşdur. Münaqişə Anthropic-in özünün inkişaf etmiş süni intellekt modeli olan Claude-un iki xüsusi tətbiq üçün istifadəsinə qəti şəkildə icazə verməməsindən qaynaqlanır: Amerika vətəndaşlarının kütləvi daxili nəzarəti və tam avtonom silahlarda tətbiqi. Müharibə Naziri Pete Hegseth-in 2026-cı il fevralın 27-də X vasitəsilə elan etdiyi bu qarşıdurma, süni intellekt etikası, milli təhlükəsizlik və korporativ məsuliyyət haqqında davam edən müzakirələrdə kritik bir dönüş nöqtəsini qeyd edir.

Anthropic, mövqeyinin yalnız etik deyil, həm də ictimai etimad və təhlükəsizlik üçün həyati əhəmiyyət kəsb etdiyini iddia edir və bu cür hər hansı bir təyinatı qanuni yolla mübahisələndirməyə söz verir. Şirkətin bu məsələdə şəffaflığı, qabaqcıl süni intellektin hərbi və nəzarət tətbiqləri ətrafında aydın təlimatlar və möhkəm dialoq üçün artan təcili ehtiyacı vurğulayır.

Etik 'Qırmızı Xətt': Nəzarət və Avtonom Silahlar

Mübahisənin mərkəzində Anthropic-in milli təhlükəsizlik üçün süni intellekt modellərinin qanuni istifadəsinə dair iki xüsusi istisnası dayanır. Müharibə Nazirliyi ilə aylarla davam edən danışıqları dayandırdığı bildirilən bu istisnalar aşağıdakılardır:

  1. Amerikalıların Kütləvi Daxili Nəzarəti: Anthropic hesab edir ki, süni intellektin öz vətəndaşlarının geniş şəkildə izlənməsi üçün istifadəsi əsas hüquqların və demokratik prinsiplərin ciddi pozulmasıdır. Şirkət məxfiliyi vətəndaş azadlıqlarının əsası hesab edir və süni intellektin bu şəkildə tətbiqi bu təməli aşındıracaq.
  2. Tam Avtonom Silahlar: Şirkət qətiyyətlə bildirir ki, Claude da daxil olmaqla, mövcud qabaqcıl süni intellekt modelləri insan müdaxiləsi olmadan ölüm-qalım qərarları verən sistemlərdə tətbiq olunmaq üçün hələ kifayət qədər etibarlı deyil. Anthropic xəbərdarlıq edir ki, bu cür etibarsızlıq həm amerikalı döyüşçüləri, həm də günahsız mülki şəxsləri faciəli şəkildə təhlükəyə ata bilər. Bu mövqe, süni intellekt cəmiyyətində mürəkkəb, yüksək riskli mühitlərdə inkişaf etmiş modellərin gözlənilməz təbiəti ilə bağlı artan narahatlıqlarla üst-üstə düşür. Anthropic-in təhlükəsiz və etibarlı süni intellekt yaratmaq öhdəliyi, Claude-un kod təhlükəsizliyi və zərərli süni intellekt istifadəsinin qarşısını almaq səyləri ilə bağlı müzakirələrdə göstərildiyi kimi, hər şeydən vacibdir.

Anthropic vurğulayır ki, onun bildiyi qədərilə bu məhdud istisnalar mövcud hökumət missiyalarına mane olmayıb. Şirkət, 2024-cü ilin iyun ayından bəri modellərini ABŞ hökumətinin məxfi şəbəkələrində tətbiq edərək, Amerika milli təhlükəsizlik səylərini dəstəkləmək sahəsində sübut edilmiş bir tarixə malikdir. Onların öhdəliyi, bu kritik etik və təhlükəsizlik hədlərini keçməyən milli təhlükəsizlik üçün süni intellektin bütün qanuni istifadələrini dəstəkləmək olaraq qalır.

Görünməmiş Təyinat: Hüquqi Mübarizə Yaxınlaşır

Nazir Hegseth-in Anthropic-i təchizat zənciri riski kimi təyin etmək təhdidi, çox qeyri-adi və potensial olaraq pozucu bir addımdır. Tarixən, 10 USC 3252 əsasında belə təyinatlar xarici düşmənlər və ya hərbi təchizat zəncirlərinin bütövlüyünə birbaşa təhlükə yaradan qurumlar üçün nəzərdə tutulmuşdur. Bu etiketi bir Amerika şirkətinə, xüsusən də hökumət podratçısı və innovator olmuş bir şirkətə tətbiq etmək görünməmişdir və təhlükəli bir presedent yaradır.

Anthropic cavabında birmənalıdır: istənilən təchizat zənciri riski təyinatını məhkəmədə mübahisələndirəcəkdir. Şirkət iddia edir ki, belə bir təyinat "qanuni cəhətdən əsassız" olacaq və hökumətlə danışıqlar aparan şirkətləri qorxutmaq cəhdi olacaq. Bu hüquqi mübarizə, əgər reallaşarsa, texnologiya innovatorları ilə milli təhlükəsizlik aparatları arasında, xüsusilə də süni intellektin etik inkişafı və tətbiqi ilə bağlı güc dinamikasını yenidən müəyyən edə bilər. Nəticələr yalnız Anthropic-dən kənara çıxaraq, digər süni intellekt şirkətlərinin müdafiə müqavilələri ilə necə əlaqə qurmasına və etik dilemmaları necə həll etməsinə potensial olaraq təsir göstərə bilər.

Müştərilərə Təsiri Anlamaq

Anthropic-in əsas narahatlıqlarından biri, təchizat zənciri riski təyinatının müxtəlif müştəri bazası üçün praktiki nəticələrini aydınlaşdırmaq olmuşdur. Nazir Hegseth-in bəyanatları geniş məhdudiyyətlər nəzərdə tutsa da, Anthropic 10 USC 3252 haqqında anlayışına əsaslanaraq daha incə bir şərh təqdim edir.

Şirkət müştərilərini əmin edir ki, belə bir təyinatın hüquqi səlahiyyəti məhduddur:

| Müştəri Seqmenti | Müharibə Nazirliyi Təchizat Zənciri Riski Təyinatının Təsiri (rəsmi olaraq qəbul edilərsə) ``` Anthropic

Tez-tez Verilən Suallar

Anthropic və Müharibə Nazirliyi arasındakı əsas mübahisə nədir?
Əsas fikir ayrılığı Anthropic-in inkişaf etmiş süni intellekt modeli olan Claude-un iki xüsusi məqsəd üçün istifadəsinə icazə verməməsindən irəli gəlir: Amerika vətəndaşlarının kütləvi daxili nəzarəti və tam avtonom silah sistemlərində tətbiqi. Bu iki istisna danışıqlarda çıxılmaz vəziyyətə gətirib çıxarmış və Müharibə Naziri Pete Hegseth-i Anthropic-i təchizat zənciri riski kimi təyin etməyə vadar etmişdir. Anthropic bildirir ki, onun mövqeyi əsas hüquqlarla bağlı etik prinsiplərə və qabaqcıl süni intellektin etibarlılığının mövcud məhdudiyyətlərinə əsaslanır.
Anthropic-in süni intellekt istifadəsi üçün iki xüsusi etik istisnası hansılardır?
Anthropic, Claude daxil olmaqla, öz süni intellekt modellərinin qanuni istifadəsinə dair iki mühüm istisnayı ardıcıl olaraq ifadə etmişdir. Birinci istisna, əsas hüquqların pozulmasını əsas gətirərək, onların süni intellektinin Amerika vətəndaşlarının kütləvi daxili nəzarəti üçün istifadəsini qadağan edir. İkinci istisna isə onların süni intellektinin tam avtonom silahlarda istifadəsinə mane olur, çünki indiki qabaqcıl süni intellekt modellərinin insan nəzarəti olmadan bu cür kritik, ölüm-qalım ssenarilərində tətbiq olunması üçün zəruri etibarlılığa və təhlükəsizlik zəmanətlərinə malik olmadığını iddia edir. Bu istisnalar onların Müharibə Nazirliyi ilə hazırkı mübahisəsinin əsasını təşkil edir.
Anthropic niyə süni intellektin bu xüsusi istifadə formalarına etiraz edir?
Anthropic-in etirazları həm etik, həm də praktiki narahatlıqlara əsaslanır. Tam avtonom silahlarla bağlı olaraq, şirkət hesab edir ki, bugünkü qabaqcıl süni intellekt modelləri həm döyüşçülərin, həm də mülki şəxslərin təhlükəsizliyini təmin etmək üçün kifayət qədər etibarlı deyil. Bu cür kritik tətbiqlərdə qeyri-müəyyənlik və səhv etmə potensialı fəlakətli nəticələrə səbəb ola bilər. Kütləvi daxili nəzarətə gəlincə, Anthropic bunu əsas hüquqların birbaşa pozulması, demokratik prinsiplərə və Amerika vətəndaşlarının məxfilik gözləntilərinə uyğunsuzluq kimi görür. Onların mövqeyi insan dəyərlərinə və təhlükəsizliyinə hörmət edən məsuliyyətli süni intellekt inkişafına sadiqliyi vurğulayır.
'Təchizat zənciri riski təyinatı' nədir və onun potensial nəticələri nələrdir?
10 USC 3252-yə əsasən 'təchizat zənciri riski təyinatı' adətən milli təhlükəsizliyə və ya hərbi təchizat zəncirlərinin bütövlüyünə təhlükə yaradan qurumlar üçün nəzərdə tutulan bir tədbirdir və çox vaxt xarici düşmənlərlə əlaqələndirilir. Əgər Anthropic-ə qarşı rəsmi olaraq tətbiq edilərsə, bu, Claude-un xüsusilə Müharibə Nazirliyinin müqavilələrində istifadəsini qanuni olaraq məhdudlaşdıracaq. Müharibə Naziri Hegseth hərbçilərlə iş görən şirkətlərə daha geniş məhdudiyyətlər nəzərdə tutsa da, Anthropic iddia edir ki, qanuni səlahiyyət onun əhatə dairəsini birbaşa Müharibə Nazirliyinin öhdəlikləri ilə məhdudlaşdırır, kommersiya müqavilələri və ya digər hökumət işləri ilə deyil. Bu təyinat bir Amerika şirkəti üçün tarixi presedentdir.
Bu təyinat Anthropic-in müştərilərinə necə təsir edəcək?
Anthropic aydınlaşdırır ki, təyinat rəsmi olaraq qəbul olunarsa, məhdud təsirə malik olacaq. Fərdi müştərilər və kommersiya müqavilələri olanlar üçün Claude-a API, claude.ai və ya digər məhsullar vasitəsilə giriş tamamilə təsirsiz qalacaq. Müharibə Nazirliyinin podratçıları üçün təyinat yalnız Claude-un Müharibə Nazirliyinin müqavilə işlərində istifadəsinə şamil olunacaq. Claude-un hər hansı digər məqsədlər üçün və ya digər müştərilərlə istifadəsi məhdudlaşdırılmayacaq. Anthropic vurğulayır ki, Müharibə Nazirinin birbaşa hərbi müqavilələrdən kənar daha geniş məhdudiyyətlər tətbiq etmək üçün qanuni səlahiyyəti yoxdur.
Bu potensial təyinata cavab olaraq Anthropic-in növbəti addımı nədir?
Anthropic hər hansı rəsmi təchizat zənciri riski təyinatını məhkəmədə mübahisələndirmək niyyətini açıq şəkildə bildirmişdir. Şirkət hesab edir ki, belə bir təyinat həm 'qanuni cəhətdən əsassız' olacaq, həm də hökumətlə danışıqlar aparan hər hansı Amerika şirkəti üçün 'təhlükəli presedent' yaradacaq. Bu hüquqi mübahisə onların etik prinsiplərinə sarsılmaz sadiqliyini və fəaliyyətlərini və müştəri münasibətlərini səlahiyyət həddini aşma kimi qəbul etdikləri hallardan qorumaq əzmini vurğulayır.
Bu vəziyyət süni intellekt sənayesi üçün hansı daha geniş presedent yaradır?
Bu vəziyyət bütün süni intellekt sənayesi, xüsusilə də milli təhlükəsizlik kontekstində süni intellekt inkişafının və tətbiqinin etik sərhədləri üçün mühüm presedent yaradır. Bu, texnoloji imkanlar, etik məsuliyyət və hökumət tələbləri arasında artan gərginliyi vurğulayır. Anthropic-in meydan oxuyan mövqeyi digər süni intellekt şirkətlərini icazə verilən istifadə halları üzrə öz 'qırmızı xəttlərini' çəkməyə təşviq edə bilər ki, bu da süni intellekt etikası, insan hüquqları və avtonom sistemlərin inkişafı ətrafında gələcək tənzimləmələri və sənaye normalarını formalaşdıra bilər. Bu, süni intellektin cəmiyyətə təsirinə görə son məsuliyyətin kimdə olması ilə bağlı müzakirələri daha yüksək səviyyəyə qaldırır.

Xəbərdar olun

Ən son AI xəbərlərini e-poçtunuza alın.

Paylaş