OpenAI dan Jabatan Perang Mengukuhkan Keselamatan AI dengan Kawalan Keselamatan yang Jelas
San Francisco, CA – 3 Mac 2026 – OpenAI telah mengumumkan kemas kini yang signifikan kepada perjanjiannya dengan Jabatan Perang (DoW), memperkukuhkan kawalan keselamatan yang ketat di sekitar penyebaran sistem AI lanjutan dalam persekitaran sulit. Kerjasama penting ini menggariskan komitmen bersama terhadap penggunaan AI yang bertanggungjawab, terutamanya berkaitan aplikasi keselamatan negara yang sensitif. Perjanjian yang dikemas kini, dimuktamadkan pada 2 Mac 2026, secara jelas melarang pengawasan domestik terhadap individu A.S. dan menyekat penggunaan AI dalam sistem senjata autonomi, menetapkan penanda aras baharu untuk integrasi etika kecerdasan buatan dalam pertahanan.
Inti perjanjian yang diperkukuh ini terletak pada menjadikan apa yang sebelumnya difahami menjadi jelas, memastikan tiada kekaburan mengenai batasan etika teknologi AI. OpenAI menekankan bahawa rangka kerja ini direka untuk menyediakan tentera A.S. dengan alat canggih sambil menegakkan prinsip privasi dan keselamatan dengan ketat.
Mendefinisikan Semula Kawalan Keselamatan untuk Penyebaran AI Sulit
Dalam langkah proaktif untuk menangani kebimbangan yang berpotensi, OpenAI dan Jabatan Perang telah menggabungkan bahasa tambahan ke dalam perjanjian mereka, secara khusus menjelaskan batasan penyebaran AI. Klausa baharu ini dengan jelas menyatakan bahawa alat OpenAI tidak akan digunakan untuk pengawasan domestik terhadap individu A.S., termasuk melalui pemerolehan atau penggunaan maklumat peribadi yang diperoleh secara komersial. Tambahan pula, DoW telah mengesahkan bahawa agensi perisikannya, seperti NSA, dikecualikan daripada perjanjian ini dan akan memerlukan terma baharu sepenuhnya untuk sebarang penyediaan perkhidmatan.
Bahasa yang dikemas kini dalam perjanjian memperincikan:
- "Selaras dengan undang-undang yang terpakai, termasuk Pindaan Keempat Perlembagaan Amerika Syarikat, Akta Keselamatan Negara 1947, Akta FISA 1978, sistem AI tidak boleh digunakan secara sengaja untuk pengawasan domestik terhadap individu dan warganegara A.S."
- "Untuk mengelakkan keraguan, Jabatan memahami batasan ini untuk melarang pengesanan, pengawasan, atau pemantauan sengaja terhadap individu atau warganegara A.S., termasuk melalui perolehan atau penggunaan maklumat peribadi atau yang boleh dikenal pasti yang diperoleh secara komersial."
Pendekatan berpandangan jauh ini bertujuan untuk mewujudkan laluan yang jelas bagi makmal AI barisan hadapan lain untuk bekerjasama dengan Jabatan Perang, memupuk kolaborasi sambil mengekalkan piawaian etika yang tidak berbelah bahagi.
Tunjang Etika Utama OpenAI: Tiga Garis Merah
OpenAI beroperasi di bawah tiga "garis merah" asas yang mengawal kerjasamanya dalam domain sensitif seperti keselamatan negara. Prinsip-prinsip ini, yang sebahagian besarnya dikongsi oleh institusi penyelidikan AI terkemuka lain, adalah teras kepada perjanjian dengan Jabatan Perang:
- Tiada pengawasan domestik besar-besaran: Teknologi OpenAI tidak akan digunakan untuk pemantauan meluas terhadap warganegara A.S.
- Tiada sistem senjata autonomi: Teknologi ini dilarang daripada mengarahkan senjata autonomi tanpa kawalan manusia.
- Tiada keputusan automatik berisiko tinggi: Alat OpenAI tidak akan digunakan untuk keputusan automatik kritikal (cth., sistem "kredit sosial") yang memerlukan pengawasan manusia.
OpenAI menegaskan bahawa strategi pelbagai lapisannya menyediakan perlindungan yang lebih teguh terhadap penggunaan yang tidak dapat diterima berbanding pendekatan yang terutamanya hanya bergantung pada dasar penggunaan. Penekanan pada kawalan keselamatan teknikal dan kontrak yang ketat ini membezakan perjanjiannya dalam landskap AI pertahanan yang berkembang.
Perlindungan Pelbagai Lapis: Seni Bina, Kontrak, dan Kepakaran Manusia
Kekuatan perjanjian OpenAI dengan Jabatan Perang terletak pada pendekatan yang komprehensif dan pelbagai lapis untuk perlindungan. Ini termasuk:
- Seni Bina Penyebaran: Perjanjian itu menghendaki penyebaran berasaskan awan sahaja, memastikan OpenAI mengekalkan budi bicara penuh terhadap tumpukan keselamatannya dan menghalang penyebaran model "tanpa kawalan keselamatan". Seni bina ini secara semula jadi menyekat kes penggunaan seperti senjata maut autonomi, yang biasanya memerlukan penyebaran pinggir. Mekanisme pengesahan bebas, termasuk pengelas, tersedia untuk memastikan garis merah ini tidak dilanggar.
- Bahasa Kontrak yang Teguh: Kontrak itu secara jelas memperincikan penggunaan yang dibenarkan, menghendaki pematuhan kepada "semua tujuan yang sah, konsisten dengan undang-undang yang terpakai, keperluan operasi, dan protokol keselamatan serta pengawasan yang mantap." Ia secara khusus merujuk undang-undang A.S. seperti Pindaan Keempat, Akta Keselamatan Negara 1947, Akta FISA 1978, dan Arahan DoD 3000.09. Pentingnya, ia melarang arahan bebas senjata autonomi dan pemantauan tanpa batasan maklumat peribadi individu A.S.
- Penglibatan Pakar AI: Jurutera OpenAI yang telah dibersihkan serta penyelidik keselamatan dan penjajaran akan dihantar ke hadapan dan "dalam gelung." Pengawasan manusia secara langsung ini menyediakan lapisan jaminan tambahan, membantu meningkatkan sistem dari semasa ke semasa dan mengesahkan secara aktif pematuhan dengan terma ketat perjanjian itu.
Pendekatan bersepadu ini memastikan bahawa kawalan keselamatan teknologi, undang-undang, dan manusia semuanya berfungsi serentak untuk mencegah penyalahgunaan.
| Kategori Garis Merah | Langkah-Langkah Perlindungan OpenAI |
|---|---|
| Pengawasan Domestik Besar-besaran | Larangan kontrak yang jelas, penjajaran dengan Pindaan Keempat, FISA, Akta Keselamatan Negara; pengecualian NSA/agensi perisikan daripada skop; batasan penyebaran berasaskan awan sahaja pada akses data; pengesahan 'dalam gelung' oleh kakitangan OpenAI. |
| Sistem Senjata Autonomi | Penyebaran berasaskan awan sahaja (tiada penyebaran pinggir untuk autonomi maut); larangan kontrak yang jelas terhadap arahan bebas senjata autonomi; pematuhan kepada Arahan DoD 3000.09 untuk pengesahan/validasi; kakitangan OpenAI 'dalam gelung' untuk pengawasan. |
| Keputusan Automatik Berisiko Tinggi | Bahasa kontrak yang jelas memerlukan kelulusan manusia untuk keputusan berisiko tinggi; OpenAI mengekalkan kawalan penuh ke atas tumpukan keselamatannya, menghalang model 'tanpa kawalan keselamatan'; kakitangan OpenAI 'dalam gelung' untuk memastikan pengawasan manusia dikekalkan di mana keputusan kritikal terlibat. |
Menangani Kebimbangan dan Membentuk Kolaborasi AI Masa Depan
OpenAI mengakui risiko yang wujud dalam AI lanjutan dan melihat kerjasama mendalam antara kerajaan dan makmal AI sebagai penting untuk menavigasi masa depan. Bekerjasama dengan Jabatan Perang membolehkan tentera A.S. mengakses alat canggih sambil memastikan bahawa teknologi ini digunakan secara bertanggungjawab.
"Kami berpendapat tentera A.S. sememangnya memerlukan model AI yang kuat untuk menyokong misi mereka terutamanya dalam menghadapi ancaman yang semakin meningkat dari musuh berpotensi yang semakin mengintegrasikan teknologi AI ke dalam sistem mereka," kata OpenAI. Komitmen ini diseimbangkan dengan keengganan yang tidak berbelah bahagi untuk berkompromi dengan kawalan keselamatan teknikal demi prestasi, menekankan bahawa pendekatan yang bertanggungjawab adalah yang paling utama.
Perjanjian ini juga bertujuan untuk meredakan ketegangan dan memupuk kerjasama yang lebih luas dalam komuniti AI. OpenAI telah meminta agar terma perlindungan yang sama tersedia untuk semua syarikat AI, dengan harapan untuk memudahkan perkongsian bertanggungjawab yang serupa di seluruh industri. Ini adalah sebahagian daripada strategi yang lebih luas oleh OpenAI, seperti yang ditunjukkan oleh kerjasama berterusan Microsoft dan usaha ke arah menskalakan AI untuk semua.
Menetapkan Standard Baharu untuk Penglibatan AI Pertahanan
OpenAI percaya perjanjiannya menetapkan standard yang lebih tinggi untuk penyebaran AI sulit berbanding dengan pengaturan sebelumnya, termasuk yang dibincangkan oleh makmal lain seperti Anthropic. Keyakinan ini berpunca daripada perlindungan asas yang tertanam: penyebaran berasaskan awan sahaja yang mengekalkan integriti tumpukan keselamatan OpenAI, jaminan kontrak yang jelas, dan penglibatan aktif kakitangan OpenAI yang telah dibersihkan.
Rangka kerja komprehensif ini memastikan bahawa garis merah yang ditetapkan — mencegah pengawasan domestik besar-besaran dan kawalan senjata autonomi — dikuatkuasakan dengan teguh. Bahasa kontrak yang secara jelas merujuk undang-undang sedia ada memastikan bahawa walaupun dasar berubah pada masa hadapan, penggunaan sistem OpenAI masih mesti mematuhi piawaian asal yang lebih ketat. Pendirian proaktif ini menggariskan komitmen OpenAI untuk membangunkan dan menyebarkan teknologi AI yang berkuasa dengan cara yang mengutamakan keselamatan, etika, dan nilai-nilai demokratik, walaupun dalam konteks keselamatan negara yang paling mencabar.
Soalan Lazim
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Kekal Dikemas Kini
Dapatkan berita AI terkini dalam peti masuk anda.
