Code Velocity
Süni İntellekt Təhlükəsizliyi

OpenAI və Müharibə Departamenti Razılaşması: Süni İntellekt Təhlükəsizliyi Qaydalarını Təmin Etmək

·7 dəq oxunma·OpenAI·Orijinal mənbə
Paylaş
OpenAI və Müharibə Departamenti arasında Sİ təhlükəsizlik qaydaları ilə razılaşma

OpenAI və Müharibə Departamenti Açıq Süni İntellekt Təhlükəsizlik Qaydaları ilə Təhlükəsizliyi Gücləndirir

San Francisco, CA – 3 mart 2026 – OpenAI, Müharibə Departamenti (DoW) ilə razılaşmasına əhəmiyyətli bir yeniləmə elan edib, məxfi mühitlərdə qabaqcıl Sİ sistemlərinin yerləşdirilməsi ətrafında ciddi təhlükəsizlik qaydalarını gücləndirir. Bu mühüm əməkdaşlıq, xüsusilə həssas milli təhlükəsizlik tətbiqləri ilə bağlı, məsuliyyətli Sİ istifadəsinə ortaq öhdəliyi vurğulayır. 2 mart 2026-cı ildə yekunlaşan yenilənmiş razılaşma, ABŞ vətəndaşlarının daxili nəzarətini açıq şəkildə qadağan edir və Sİ-nin muxtar silah sistemlərində istifadəsini məhdudlaşdırır, müdafiədə süni intellektin etik inteqrasiyası üçün yeni bir etalon müəyyən edir.

Bu təkmilləşdirilmiş razılaşmanın əsas mahiyyəti, əvvəllər başa düşülən məsələləri açıq şəkildə ifadə etməkdən ibarətdir, bu da Sİ texnologiyasının etik məhdudiyyətləri ilə bağlı heç bir qeyri-müəyyənliyə yer qoymur. OpenAI vurğulayır ki, bu çərçivə ABŞ ordusunu ən müasir alətlərlə təmin etmək, eyni zamanda məxfilik və təhlükəsizlik prinsiplərini ciddi şəkildə qorumaq üçün nəzərdə tutulub.

Məxfi Sİ Yerləşdirmələri üçün Təhlükəsizlik Tədbirlərinin Yenidən Müəyyən Edilməsi

Potensial narahatlıqları aradan qaldırmaq üçün proaktiv bir addım olaraq, OpenAI və Müharibə Departamenti razılaşmalarına əlavə dil daxil edərək, Sİ yerləşdirməsinin sərhədlərini xüsusi olaraq aydınlaşdırıblar. Bu yeni bənd qəti şəkildə bildirir ki, OpenAI-nin alətləri ABŞ vətəndaşlarının daxili nəzarəti üçün, o cümlədən kommersiya yolla əldə edilmiş şəxsi məlumatların alınması və ya istifadəsi yolu ilə istifadə edilməyəcək. Bundan əlavə, DoW təsdiq edib ki, onun NSA kimi kəşfiyyat agentlikləri bu razılaşmadan kənardır və hər hansı bir xidmət təminatı üçün tamamilə yeni şərtlər tələb edəcəklər.

Razılaşmadakı yenilənmiş dil təfərrüatları:

  • "Tətbiq olunan qanunlara, o cümlədən Amerika Birləşmiş Ştatları Konstitusiyasının Dördüncü Dəyişikliyinə, 1947-ci il Milli Təhlükəsizlik Aktına, 1978-ci il FISA Aktına uyğun olaraq, Sİ sistemi qəsdən ABŞ vətəndaşlarının daxili nəzarəti üçün istifadə edilməyəcək."
  • "Şübhələrin qarşısını almaq üçün Departament bu məhdudiyyətin ABŞ vətəndaşlarının qəsdən izlənməsini, nəzarətini və ya monitorinqini, o cümlədən kommersiya yolla əldə edilmiş şəxsi və ya identifikasiya olunan məlumatların alınması və ya istifadəsi yolu ilə qadağan etdiyini başa düşür."

Bu irəliyə yönəlmiş yanaşma, digər qabaqcıl Sİ laboratoriyaları üçün Müharibə Departamenti ilə əməkdaşlıq etmək, əməkdaşlığı inkişaf etdirmək və sarsılmaz etik standartları qorumaq üçün aydın bir yol yaratmağı hədəfləyir.

OpenAI-nin Əsas Etik Sütunları: Üç Qırmızı Xətt

OpenAI, milli təhlükəsizlik kimi həssas sahələrdəki əməkdaşlıqlarını tənzimləyən üç əsas "qırmızı xətt" altında fəaliyyət göstərir. Digər aparıcı Sİ tədqiqat institutları tərəfindən geniş şəkildə paylaşılan bu prinsiplər, Müharibə Departamenti ilə razılaşmanın əsasını təşkil edir:

  1. Kütləvi daxili nəzarət yoxdur: OpenAI texnologiyası ABŞ vətəndaşlarının geniş miqyaslı monitorinqi üçün istifadə edilməyəcək.
  2. Muxtar silah sistemləri yoxdur: Texnologiyanın insan nəzarəti olmadan muxtar silahları idarə etməsi qadağandır.
  3. Yüksək riskli avtomatlaşdırılmış qərarlar yoxdur: OpenAI alətləri insan nəzarətini tələb edən kritik avtomatlaşdırılmış qərarlar (məsələn, "sosial kredit" sistemləri) üçün istifadə edilməyəcək.

OpenAI iddia edir ki, onun çoxşaxəli strategiyası, əsasən yalnız istifadə siyasətlərinə əsaslanan yanaşmalarla müqayisədə qəbuledilməz istifadə hallarına qarşı daha möhkəm qorunma təmin edir. Ciddi texniki və müqaviləvi təhlükəsizlik tədbirlərinə bu vurğu, müdafiə Sİ-nin inkişaf edən mənzərəsində onun razılaşmasını fərqləndirir.

Çoxşaxəli Müdafiə: Arxitektura, Müqavilə və İnsan Ekspertizası

OpenAI-nin Müharibə Departamenti ilə razılaşmasının gücü, qorunmaya dair hərtərəfli, çoxşaxəli yanaşmasında yatır. Buraya daxildir:

  1. Yerləşdirmə Arxitekturası: Razılaşma, yalnız bulud əsaslı yerləşdirməni tələb edir, bu da OpenAI-nin təhlükəsizlik yığını üzərində tam səlahiyyətə sahib olmasını təmin edir və "qaydaları ləğv edilmiş" modellərin yerləşdirilməsinin qarşısını alır. Bu arxitektura, adətən kənar yerləşdirmə tələb edən muxtar ölümcül silahlar kimi istifadə hallarına təbii olaraq məhdudiyyət qoyur. Bu qırmızı xətlərin aşılmamasını təmin etmək üçün təsnifləndiricilər daxil olmaqla, müstəqil yoxlama mexanizmləri mövcuddur.
  2. Möhkəm Müqavilə Dili: Müqavilə, "bütün qanuni məqsədlərə, tətbiq olunan qanunlara, əməliyyat tələblərinə və yaxşı qurulmuş təhlükəsizlik və nəzarət protokollarına" riayət edilməsini tələb edərək, icazə verilən istifadələri açıq şəkildə təfərrüatlandırır. O, ABŞ qanunlarına, məsələn, Dördüncü Dəyişikliyə, 1947-ci il Milli Təhlükəsizlik Aktına, 1978-ci il FISA Aktına və DoD Direktiv 3000.09-a xüsusi olaraq istinad edir. Ən əsası, muxtar silahların müstəqil idarə edilməsini və ABŞ vətəndaşlarının şəxsi məlumatlarının məhdudiyyətsiz monitorinqini qadağan edir.
  3. Sİ Ekspertlərinin İştirakı: İcazəli OpenAI mühəndisləri, təhlükəsizlik və uyğunlaşma tədqiqatçıları irəli yerləşdiriləcək və "prosesdə iştirak edəcəklər". Bu birbaşa insan nəzarəti, sistemləri zamanla təkmilləşdirməyə kömək edərək və razılaşmanın ciddi şərtlərinə riayət olunmasını aktiv şəkildə yoxlayaraq əlavə bir təminat təbəqəsi təmin edir.

Bu inteqrasiya olunmuş yanaşma, texnoloji, hüquqi və insan təhlükəsizlik tədbirlərinin sui-istifadənin qarşısını almaq üçün birlikdə işləməsini təmin edir.

Qırmızı Xətt KateqoriyasıOpenAI-nin Müdafiə Tədbirləri
Kütləvi Daxili NəzarətAçıq müqaviləvi qadağa, Dördüncü Dəyişiklik, FISA, Milli Təhlükəsizlik Aktı ilə uyğunlaşma; NSA/kəşfiyyat agentliklərinin əhatə dairəsindən kənarlaşdırılması; məlumatlara giriş üçün yalnız bulud yerləşdirmə məhdudiyyətləri; prosesdə olan OpenAI personalının yoxlaması.
Muxtar Silah SistemləriYalnız bulud yerləşdirməsi (ölümcül muxtariyyət üçün kənar yerləşdirmə yoxdur); muxtar silahların müstəqil idarə edilməsinə qarşı açıq müqaviləvi qadağa; yoxlama/təsdiqləmə üçün DoD Direktiv 3000.09-a riayət edilməsi; nəzarət üçün prosesdə olan OpenAI personalı.
Yüksək Riskli Avtomatlaşdırılmış QərarlarYüksək riskli qərarlar üçün insan təsdiqini tələb edən açıq müqavilə dili; OpenAI təhlükəsizlik yığını üzərində tam nəzarəti saxlayır, "qaydaları ləğv edilmiş" modellərin qarşısını alır; kritik qərarların qəbul edildiyi yerlərdə insan nəzarətinin təmin olunması üçün prosesdə olan OpenAI personalı.

Narahatlıqların Aradan Qaldırılması və Gələcək Sİ Əməkdaşlığının Qurulması

OpenAI, qabaqcıl Sİ-nin xas risklərini etiraf edir və hökumət ilə Sİ laboratoriyaları arasında dərin əməkdaşlığı gələcəyi idarə etmək üçün vacib hesab edir. Müharibə Departamenti ilə əməkdaşlıq, ABŞ ordusuna qabaqcıl alətlərə çıxış əldə etməyə imkan verir, eyni zamanda bu texnologiyaların məsuliyyətlə yerləşdirilməsini təmin edir.

"Hesab edirik ki, ABŞ ordusunun, xüsusilə Sİ texnologiyalarını öz sistemlərinə getdikcə daha çox inteqrasiya edən potensial düşmənlərdən gələn artan təhdidlər qarşısında öz missiyalarını dəstəkləmək üçün mütləq güclü Sİ modellərinə ehtiyacı var," deyə OpenAI bildirdi. Bu öhdəlik, performans üçün texniki təhlükəsizlik tədbirlərindən güzəştə getməkdən boyun qaçırmaqla tarazlaşdırılır, məsuliyyətli yanaşmanın əsas olduğunu vurğulayır.

Razılaşma, həmçinin gərginliyi azaltmağı və Sİ icması daxilində daha geniş əməkdaşlığı təşviq etməyi hədəfləyir. OpenAI, eyni qoruyucu şərtlərin bütün Sİ şirkətləri üçün əlçatan olmasını xahiş edərək, sənayedə oxşar məsuliyyətli tərəfdaşlıqları asanlaşdırmağa ümid edir. Bu, OpenAI-nin Microsoft ilə davam edən tərəfdaşlığıSİ-ni hər kəs üçün miqyaslandırma səyləri ilə nümayiş olunan daha geniş strategiyasının bir hissəsidir.

Müdafiə Sİ Əməkdaşlığı üçün Yeni Bir Standartın Müəyyən Edilməsi

OpenAI hesab edir ki, onun razılaşması, Anthropic kimi digər laboratoriyalar tərəfindən müzakirə olunanlar da daxil olmaqla, əvvəlki tənzimləmələrlə müqayisədə məxfi Sİ yerləşdirmələri üçün daha yüksək standart müəyyən edir. Bu inam, tətbiq olunan əsas qoruyucu tədbirlərdən irəli gəlir: OpenAI-nin təhlükəsizlik yığınının bütövlüyünü qoruyan yalnız bulud əsaslı yerləşdirmə, açıq müqavilə zəmanətləri və icazəli OpenAI personalının aktiv iştirakı.

Bu hərtərəfli çərçivə, müəyyən edilmiş qırmızı xətlərin — kütləvi daxili nəzarətin və muxtar silahların idarə edilməsinin qarşısını almaq — möhkəm şəkildə tətbiq olunmasını təmin edir. Mövcud qanunlara açıq şəkildə istinad edən müqavilə dili, siyasətlər gələcəkdə dəyişsə belə, OpenAI sistemlərinin istifadəsinin orijinal, daha sərt standartlara uyğun olmasını təmin edir. Bu proaktiv mövqe, OpenAI-nin ən tələbkar milli təhlükəsizlik kontekstlərində belə, təhlükəsizliyi, etik dəyərləri və demokratik prinsipləri prioritet hesab edən şəkildə güclü Sİ texnologiyalarını inkişaf etdirməyə və yerləşdirməyə olan öhdəliyini vurğulayır.

Tez-tez Verilən Suallar

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Xəbərdar olun

Ən son AI xəbərlərini e-poçtunuza alın.

Paylaş