Code Velocity
Keamanan AI

Perjanjian OpenAI dengan Departemen Perang: Memastikan Batasan Keamanan AI

·7 mnt baca·OpenAI·Sumber asli
Bagikan
Perjanjian OpenAI dan Departemen Perang dengan batasan keamanan AI

OpenAI dan Departemen Perang Perkuat Keamanan AI dengan Batasan Jelas

San Francisco, CA – 3 Maret 2026 – OpenAI telah mengumumkan pembaruan signifikan pada perjanjiannya dengan Departemen Perang (DoW), memperkuat batasan keamanan yang ketat di sekitar penyebaran sistem AI canggih di lingkungan terklasifikasi. Kolaborasi penting ini menggarisbawahi komitmen bersama terhadap penggunaan AI yang bertanggung jawab, terutama terkait aplikasi keamanan nasional yang sensitif. Perjanjian yang diperbarui, diselesaikan pada 2 Maret 2026, secara eksplisit melarang pengawasan domestik terhadap warga AS dan membatasi penggunaan AI dalam sistem senjata otonom, menetapkan tolok ukur baru untuk integrasi etis kecerdasan buatan dalam pertahanan.

Inti dari perjanjian yang disempurnakan ini terletak pada eksplisitasi hal-hal yang sebelumnya telah dipahami, memastikan tidak ada ambiguitas mengenai batasan etika teknologi AI. OpenAI menekankan bahwa kerangka kerja ini dirancang untuk membekali militer A.S. dengan perangkat mutakhir sambil secara ketat menjunjung tinggi prinsip privasi dan keamanan.

Mendefinisikan Ulang Perlindungan untuk Penyebaran AI Terklasifikasi

Sebagai langkah proaktif untuk mengatasi potensi kekhawatiran, OpenAI dan Departemen Perang telah memasukkan bahasa tambahan ke dalam perjanjian mereka, secara spesifik memperjelas batasan penyebaran AI. Klausul baru ini secara tegas menyatakan bahwa alat OpenAI tidak akan digunakan untuk pengawasan domestik terhadap warga A.S., termasuk melalui akuisisi atau penggunaan informasi pribadi yang diperoleh secara komersial. Selanjutnya, DoW telah mengkonfirmasi bahwa lembaga intelijennya, seperti NSA, dikecualikan dari perjanjian ini dan akan memerlukan persyaratan yang sama sekali baru untuk penyediaan layanan apa pun.

Bahasa yang diperbarui dalam perjanjian merinci:

  • "Sesuai dengan undang-undang yang berlaku, termasuk Amandemen Keempat Konstitusi Amerika Serikat, Undang-Undang Keamanan Nasional 1947, Undang-Undang FISA 1978, sistem AI tidak boleh sengaja digunakan untuk pengawasan domestik terhadap warga dan penduduk A.S."
  • "Untuk menghindari keraguan, Departemen memahami batasan ini melarang pelacakan, pengawasan, atau pemantauan yang disengaja terhadap warga atau penduduk A.S., termasuk melalui pengadaan atau penggunaan informasi pribadi atau yang dapat diidentifikasi yang diperoleh secara komersial."

Pendekatan berwawasan ke depan ini bertujuan untuk membangun jalur yang jelas bagi laboratorium AI perbatasan lainnya untuk berinteraksi dengan Departemen Perang, mendorong kolaborasi sambil menjaga standar etika yang teguh.

Pilar Etika Inti OpenAI: Tiga Batasan Merah ('Red Lines')

OpenAI beroperasi di bawah tiga "red line" fundamental yang mengatur kolaborasinya di domain sensitif seperti keamanan nasional. Prinsip-prinsip ini, yang sebagian besar juga dianut oleh institusi penelitian AI terkemuka lainnya, merupakan inti dari perjanjian dengan Departemen Perang:

  1. Tidak ada pengawasan domestik massal: Teknologi OpenAI tidak akan digunakan untuk pemantauan warga A.S. secara luas.
  2. Tidak ada sistem senjata otonom: Teknologi ini dilarang untuk mengarahkan senjata otonom tanpa kendali manusia.
  3. Tidak ada keputusan otomatis berisiko tinggi: Alat OpenAI tidak akan digunakan untuk keputusan otomatis kritis (misalnya, sistem 'kredit sosial') yang memerlukan pengawasan manusia.

OpenAI menegaskan bahwa strategi berlapisnya memberikan perlindungan yang lebih kuat terhadap penggunaan yang tidak dapat diterima dibandingkan dengan pendekatan yang hanya mengandalkan kebijakan penggunaan. Penekanan pada perlindungan teknis dan kontraktual yang ketat ini membedakan perjanjiannya dalam lanskap AI pertahanan yang berkembang.

Perlindungan Multi-Lapis: Arsitektur, Kontrak, dan Keahlian Manusia

Kekuatan perjanjian OpenAI dengan Departemen Perang terletak pada pendekatan perlindungan yang komprehensif dan berlapis-lapis. Ini meliputi:

  1. Arsitektur Penyebaran: Perjanjian tersebut mewajibkan penyebaran hanya berbasis cloud, memastikan bahwa OpenAI mempertahankan kendali penuh atas tumpukan keamanannya dan mencegah penyebaran model 'tanpa batasan keamanan'. Arsitektur ini secara inheren membatasi kasus penggunaan seperti senjata otonom mematikan, yang biasanya memerlukan penyebaran tepi. Mekanisme verifikasi independen, termasuk klasifikator, tersedia untuk memastikan 'red line' ini tidak dilanggar.
  2. Bahasa Kontrak yang Kuat: Kontrak tersebut secara eksplisit merinci penggunaan yang diizinkan, mensyaratkan kepatuhan terhadap 'semua tujuan yang sah, konsisten dengan hukum yang berlaku, persyaratan operasional, dan protokol keselamatan serta pengawasan yang telah ditetapkan dengan baik.' Ini secara spesifik merujuk pada undang-undang A.S. seperti Amandemen Keempat, Undang-Undang Keamanan Nasional 1947, Undang-Undang FISA 1978, dan Petunjuk DoD 3000.09. Yang terpenting, ini melarang pengarahan independen senjata otonom dan pemantauan tanpa batas terhadap informasi pribadi warga A.S.
  3. Keterlibatan Ahli AI: Insinyur OpenAI yang telah disetujui dan peneliti keamanan serta keselarasan akan dikerahkan di lapangan dan 'in the loop'. Pengawasan manusia langsung ini memberikan lapisan jaminan tambahan, membantu meningkatkan sistem seiring waktu dan secara aktif memverifikasi kepatuhan terhadap persyaratan ketat perjanjian.
Kategori Batasan MerahTindakan Perlindungan OpenAI
Pengawasan Domestik MassalLarangan kontraktual eksplisit, selaras dengan Amandemen Keempat, FISA, Undang-Undang Keamanan Nasional; pengecualian NSA/lembaga intelijen dari cakupan; batasan penyebaran cloud-only pada akses data; verifikasi oleh personel OpenAI yang 'in-the-loop'.
Sistem Senjata OtonomPenyebaran hanya berbasis cloud (tidak ada penyebaran tepi untuk otonomi mematikan); larangan kontraktual eksplisit terhadap pengarahan independen senjata otonom; kepatuhan terhadap Petunjuk DoD 3000.09 untuk verifikasi/validasi; personel OpenAI yang 'in-the-loop' untuk pengawasan.
Keputusan Otomatis Berisiko TinggiBahasa kontraktual eksplisit yang mensyaratkan persetujuan manusia untuk keputusan berisiko tinggi; OpenAI mempertahankan kendali penuh atas tumpukan keamanannya, mencegah model 'tanpa batasan keamanan'; personel OpenAI yang 'in-the-loop' untuk memastikan pengawasan manusia tetap terjaga di mana keputusan kritis terlibat.

Pendekatan terintegrasi ini memastikan bahwa perlindungan teknologi, hukum, dan manusia semuanya bekerja secara bersamaan untuk mencegah penyalahgunaan.

Mengatasi Kekhawatiran dan Menjalin Kolaborasi AI di Masa Depan

OpenAI mengakui risiko inheren dari AI canggih dan memandang kolaborasi mendalam antara pemerintah dan laboratorium AI sebagai hal penting untuk menavigasi masa depan. Keterlibatan dengan Departemen Perang memungkinkan militer A.S. mengakses alat mutakhir sambil memastikan bahwa teknologi ini disebarkan secara bertanggung jawab.

  • "Kami berpikir militer A.S. mutlak membutuhkan model AI yang kuat untuk mendukung misi mereka, terutama dalam menghadapi ancaman yang berkembang dari lawan potensial yang semakin mengintegrasikan teknologi AI ke dalam sistem mereka," kata OpenAI. Komitmen ini diimbangi dengan keengganan yang tak tergoyahkan untuk mengorbankan perlindungan teknis demi kinerja, menekankan bahwa pendekatan yang bertanggung jawab adalah yang terpenting.

Perjanjian tersebut juga bertujuan untuk meredakan ketegangan dan mendorong kolaborasi yang lebih luas dalam komunitas AI. OpenAI telah meminta agar persyaratan perlindungan yang sama tersedia untuk semua perusahaan AI, berharap dapat memfasilitasi kemitraan yang bertanggung jawab serupa di seluruh industri. Ini adalah bagian dari strategi OpenAI yang lebih luas, seperti yang ditunjukkan oleh kemitraan Microsoft berkelanjutannya dan upaya menuju penskalaan AI untuk semua orang.

Menetapkan Standar Baru untuk Keterlibatan AI Pertahanan

OpenAI percaya perjanjiannya menetapkan standar yang lebih tinggi untuk penyebaran AI terklasifikasi dibandingkan dengan pengaturan sebelumnya, termasuk yang dibahas oleh laboratorium lain seperti Anthropic. Kepercayaan ini berasal dari perlindungan mendasar yang tertanam: penyebaran cloud-only yang menjaga integritas tumpukan keamanan OpenAI, jaminan kontraktual eksplisit, dan keterlibatan aktif personel OpenAI yang telah diizinkan.

Kerangka kerja komprehensif ini memastikan bahwa 'red line' yang ditentukan — mencegah pengawasan domestik massal dan kontrol senjata otonom — ditegakkan secara kuat. Bahasa kontraktual yang secara eksplisit merujuk pada undang-undang yang ada memastikan bahwa bahkan jika kebijakan berubah di masa depan, penggunaan sistem OpenAI harus tetap sesuai dengan standar asli yang lebih ketat. Sikap proaktif ini menggarisbawahi komitmen OpenAI untuk mengembangkan dan menyebarkan teknologi AI yang kuat dengan cara yang mengutamakan keselamatan, etika, dan nilai-nilai demokrasi, bahkan dalam konteks keamanan nasional yang paling menuntut.

Pertanyaan yang Sering Diajukan

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Tetap Update

Dapatkan berita AI terbaru di inbox Anda.

Bagikan