Code Velocity
Keselamatan AI

Perjanjian Jabatan Perang OpenAI: Memastikan Kawalan Keselamatan AI

·7 min bacaan·OpenAI·Sumber asal
Kongsi
Perjanjian OpenAI dan Jabatan Perang dengan kawalan keselamatan AI

OpenAI dan Jabatan Perang Mengukuhkan Keselamatan AI dengan Kawalan Keselamatan yang Jelas

San Francisco, CA – 3 Mac 2026 – OpenAI telah mengumumkan kemas kini yang signifikan kepada perjanjiannya dengan Jabatan Perang (DoW), memperkukuhkan kawalan keselamatan yang ketat di sekitar penyebaran sistem AI lanjutan dalam persekitaran sulit. Kerjasama penting ini menggariskan komitmen bersama terhadap penggunaan AI yang bertanggungjawab, terutamanya berkaitan aplikasi keselamatan negara yang sensitif. Perjanjian yang dikemas kini, dimuktamadkan pada 2 Mac 2026, secara jelas melarang pengawasan domestik terhadap individu A.S. dan menyekat penggunaan AI dalam sistem senjata autonomi, menetapkan penanda aras baharu untuk integrasi etika kecerdasan buatan dalam pertahanan.

Inti perjanjian yang diperkukuh ini terletak pada menjadikan apa yang sebelumnya difahami menjadi jelas, memastikan tiada kekaburan mengenai batasan etika teknologi AI. OpenAI menekankan bahawa rangka kerja ini direka untuk menyediakan tentera A.S. dengan alat canggih sambil menegakkan prinsip privasi dan keselamatan dengan ketat.

Mendefinisikan Semula Kawalan Keselamatan untuk Penyebaran AI Sulit

Dalam langkah proaktif untuk menangani kebimbangan yang berpotensi, OpenAI dan Jabatan Perang telah menggabungkan bahasa tambahan ke dalam perjanjian mereka, secara khusus menjelaskan batasan penyebaran AI. Klausa baharu ini dengan jelas menyatakan bahawa alat OpenAI tidak akan digunakan untuk pengawasan domestik terhadap individu A.S., termasuk melalui pemerolehan atau penggunaan maklumat peribadi yang diperoleh secara komersial. Tambahan pula, DoW telah mengesahkan bahawa agensi perisikannya, seperti NSA, dikecualikan daripada perjanjian ini dan akan memerlukan terma baharu sepenuhnya untuk sebarang penyediaan perkhidmatan.

Bahasa yang dikemas kini dalam perjanjian memperincikan:

  • "Selaras dengan undang-undang yang terpakai, termasuk Pindaan Keempat Perlembagaan Amerika Syarikat, Akta Keselamatan Negara 1947, Akta FISA 1978, sistem AI tidak boleh digunakan secara sengaja untuk pengawasan domestik terhadap individu dan warganegara A.S."
  • "Untuk mengelakkan keraguan, Jabatan memahami batasan ini untuk melarang pengesanan, pengawasan, atau pemantauan sengaja terhadap individu atau warganegara A.S., termasuk melalui perolehan atau penggunaan maklumat peribadi atau yang boleh dikenal pasti yang diperoleh secara komersial."

Pendekatan berpandangan jauh ini bertujuan untuk mewujudkan laluan yang jelas bagi makmal AI barisan hadapan lain untuk bekerjasama dengan Jabatan Perang, memupuk kolaborasi sambil mengekalkan piawaian etika yang tidak berbelah bahagi.

Tunjang Etika Utama OpenAI: Tiga Garis Merah

OpenAI beroperasi di bawah tiga "garis merah" asas yang mengawal kerjasamanya dalam domain sensitif seperti keselamatan negara. Prinsip-prinsip ini, yang sebahagian besarnya dikongsi oleh institusi penyelidikan AI terkemuka lain, adalah teras kepada perjanjian dengan Jabatan Perang:

  1. Tiada pengawasan domestik besar-besaran: Teknologi OpenAI tidak akan digunakan untuk pemantauan meluas terhadap warganegara A.S.
  2. Tiada sistem senjata autonomi: Teknologi ini dilarang daripada mengarahkan senjata autonomi tanpa kawalan manusia.
  3. Tiada keputusan automatik berisiko tinggi: Alat OpenAI tidak akan digunakan untuk keputusan automatik kritikal (cth., sistem "kredit sosial") yang memerlukan pengawasan manusia.

OpenAI menegaskan bahawa strategi pelbagai lapisannya menyediakan perlindungan yang lebih teguh terhadap penggunaan yang tidak dapat diterima berbanding pendekatan yang terutamanya hanya bergantung pada dasar penggunaan. Penekanan pada kawalan keselamatan teknikal dan kontrak yang ketat ini membezakan perjanjiannya dalam landskap AI pertahanan yang berkembang.

Perlindungan Pelbagai Lapis: Seni Bina, Kontrak, dan Kepakaran Manusia

Kekuatan perjanjian OpenAI dengan Jabatan Perang terletak pada pendekatan yang komprehensif dan pelbagai lapis untuk perlindungan. Ini termasuk:

  1. Seni Bina Penyebaran: Perjanjian itu menghendaki penyebaran berasaskan awan sahaja, memastikan OpenAI mengekalkan budi bicara penuh terhadap tumpukan keselamatannya dan menghalang penyebaran model "tanpa kawalan keselamatan". Seni bina ini secara semula jadi menyekat kes penggunaan seperti senjata maut autonomi, yang biasanya memerlukan penyebaran pinggir. Mekanisme pengesahan bebas, termasuk pengelas, tersedia untuk memastikan garis merah ini tidak dilanggar.
  2. Bahasa Kontrak yang Teguh: Kontrak itu secara jelas memperincikan penggunaan yang dibenarkan, menghendaki pematuhan kepada "semua tujuan yang sah, konsisten dengan undang-undang yang terpakai, keperluan operasi, dan protokol keselamatan serta pengawasan yang mantap." Ia secara khusus merujuk undang-undang A.S. seperti Pindaan Keempat, Akta Keselamatan Negara 1947, Akta FISA 1978, dan Arahan DoD 3000.09. Pentingnya, ia melarang arahan bebas senjata autonomi dan pemantauan tanpa batasan maklumat peribadi individu A.S.
  3. Penglibatan Pakar AI: Jurutera OpenAI yang telah dibersihkan serta penyelidik keselamatan dan penjajaran akan dihantar ke hadapan dan "dalam gelung." Pengawasan manusia secara langsung ini menyediakan lapisan jaminan tambahan, membantu meningkatkan sistem dari semasa ke semasa dan mengesahkan secara aktif pematuhan dengan terma ketat perjanjian itu.

Pendekatan bersepadu ini memastikan bahawa kawalan keselamatan teknologi, undang-undang, dan manusia semuanya berfungsi serentak untuk mencegah penyalahgunaan.

Kategori Garis MerahLangkah-Langkah Perlindungan OpenAI
Pengawasan Domestik Besar-besaranLarangan kontrak yang jelas, penjajaran dengan Pindaan Keempat, FISA, Akta Keselamatan Negara; pengecualian NSA/agensi perisikan daripada skop; batasan penyebaran berasaskan awan sahaja pada akses data; pengesahan 'dalam gelung' oleh kakitangan OpenAI.
Sistem Senjata AutonomiPenyebaran berasaskan awan sahaja (tiada penyebaran pinggir untuk autonomi maut); larangan kontrak yang jelas terhadap arahan bebas senjata autonomi; pematuhan kepada Arahan DoD 3000.09 untuk pengesahan/validasi; kakitangan OpenAI 'dalam gelung' untuk pengawasan.
Keputusan Automatik Berisiko TinggiBahasa kontrak yang jelas memerlukan kelulusan manusia untuk keputusan berisiko tinggi; OpenAI mengekalkan kawalan penuh ke atas tumpukan keselamatannya, menghalang model 'tanpa kawalan keselamatan'; kakitangan OpenAI 'dalam gelung' untuk memastikan pengawasan manusia dikekalkan di mana keputusan kritikal terlibat.

Menangani Kebimbangan dan Membentuk Kolaborasi AI Masa Depan

OpenAI mengakui risiko yang wujud dalam AI lanjutan dan melihat kerjasama mendalam antara kerajaan dan makmal AI sebagai penting untuk menavigasi masa depan. Bekerjasama dengan Jabatan Perang membolehkan tentera A.S. mengakses alat canggih sambil memastikan bahawa teknologi ini digunakan secara bertanggungjawab.

"Kami berpendapat tentera A.S. sememangnya memerlukan model AI yang kuat untuk menyokong misi mereka terutamanya dalam menghadapi ancaman yang semakin meningkat dari musuh berpotensi yang semakin mengintegrasikan teknologi AI ke dalam sistem mereka," kata OpenAI. Komitmen ini diseimbangkan dengan keengganan yang tidak berbelah bahagi untuk berkompromi dengan kawalan keselamatan teknikal demi prestasi, menekankan bahawa pendekatan yang bertanggungjawab adalah yang paling utama.

Perjanjian ini juga bertujuan untuk meredakan ketegangan dan memupuk kerjasama yang lebih luas dalam komuniti AI. OpenAI telah meminta agar terma perlindungan yang sama tersedia untuk semua syarikat AI, dengan harapan untuk memudahkan perkongsian bertanggungjawab yang serupa di seluruh industri. Ini adalah sebahagian daripada strategi yang lebih luas oleh OpenAI, seperti yang ditunjukkan oleh kerjasama berterusan Microsoft dan usaha ke arah menskalakan AI untuk semua.

Menetapkan Standard Baharu untuk Penglibatan AI Pertahanan

OpenAI percaya perjanjiannya menetapkan standard yang lebih tinggi untuk penyebaran AI sulit berbanding dengan pengaturan sebelumnya, termasuk yang dibincangkan oleh makmal lain seperti Anthropic. Keyakinan ini berpunca daripada perlindungan asas yang tertanam: penyebaran berasaskan awan sahaja yang mengekalkan integriti tumpukan keselamatan OpenAI, jaminan kontrak yang jelas, dan penglibatan aktif kakitangan OpenAI yang telah dibersihkan.

Rangka kerja komprehensif ini memastikan bahawa garis merah yang ditetapkan — mencegah pengawasan domestik besar-besaran dan kawalan senjata autonomi — dikuatkuasakan dengan teguh. Bahasa kontrak yang secara jelas merujuk undang-undang sedia ada memastikan bahawa walaupun dasar berubah pada masa hadapan, penggunaan sistem OpenAI masih mesti mematuhi piawaian asal yang lebih ketat. Pendirian proaktif ini menggariskan komitmen OpenAI untuk membangunkan dan menyebarkan teknologi AI yang berkuasa dengan cara yang mengutamakan keselamatan, etika, dan nilai-nilai demokratik, walaupun dalam konteks keselamatan negara yang paling mencabar.

Soalan Lazim

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Kekal Dikemas Kini

Dapatkan berita AI terkini dalam peti masuk anda.

Kongsi