Code Velocity
Seguridad ng AI

Kasunduan ng OpenAI at Kagawaran ng Digmaan: Pagtiyak sa Mga Pananggalang sa Kaligtasan ng AI

·7 min basahin·OpenAI·Orihinal na pinagmulan
I-share
Kasunduan ng OpenAI at Kagawaran ng Digmaan na may mga pananggalang sa kaligtasan ng AI

OpenAI at Kagawaran ng Digmaan, Nagpatibay ng Kaligtasan ng AI sa Malinaw na mga Pananggalang

San Francisco, CA – March 3, 2026 – Inanunsyo ng OpenAI ang isang mahalagang pagbabago sa kasunduan nito sa Kagawaran ng Digmaan (DoW), na nagpapatibay sa mahigpit na pananggalang sa kaligtasan sa pagde-deploy ng mga advanced na sistema ng AI sa mga klasipikadong kapaligiran. Binibigyang-diin ng makasaysayang kolaborasyong ito ang isang ibinahaging pangako sa responsableng paggamit ng AI, lalo na sa mga sensitibong aplikasyon sa pambansang seguridad. Ang na-update na kasunduan, na tinapos noong Marso 2, 2026, ay malinaw na nagbabawal sa pagmamanman sa loob ng bansa ng mga tao ng U.S. at nililimitahan ang paggamit ng AI sa mga sistema ng awtonomong sandata, na nagtatakda ng bagong pamantayan para sa etikal na integrasyon ng artificial intelligence sa depensa.

Ang sentro ng pinahusay na kasunduang ito ay ang gawing malinaw ang dating naiintindihan, na tinitiyak na walang kalabuan tungkol sa mga etikal na limitasyon ng teknolohiya ng AI. Binibigyang-diin ng OpenAI na ang balangkas na ito ay idinisenyo upang bigyan ang militar ng U.S. ng mga makabagong kagamitan habang mahigpit na pinaninindigan ang mga prinsipyo ng privacy at kaligtasan.

Muling Pagtukoy sa mga Pananggalang para sa Klasipikadong Pagde-deploy ng AI

Bilang isang proaktibong hakbang upang matugunan ang mga posibleng alalahanin, isinama ng OpenAI at ng Kagawaran ng Digmaan ang karagdagang wika sa kanilang kasunduan, partikular na nililinaw ang mga hangganan ng pagde-deploy ng AI. Malinaw na sinasaad ng bagong probisyong ito na ang mga kagamitan ng OpenAI ay hindi gagamitin para sa pagmamanman sa loob ng bansa ng mga tao ng U.S., kabilang ang sa pamamagitan ng pagkuha o paggamit ng komersyal na nakuha na personal na impormasyon. Bukod pa rito, kinumpirma ng DoW na ang mga ahensya nito ng intelihensiya, tulad ng NSA, ay hindi kasama sa kasunduang ito at mangangailangan ng ganap na bagong tuntunin para sa anumang pagkakaloob ng serbisyo.

Ang na-update na wika sa kasunduan ay nagdedetalye:

  • "Alinsunod sa mga naaangkop na batas, kabilang ang Fourth Amendment sa Konstitusyon ng Estados Unidos, National Security Act of 1947, FISA Act of 1978, ang AI system ay hindi sinasadyang gagamitin para sa pagmamanman sa loob ng bansa ng mga tao at mamamayan ng U.S."
  • "Upang maiwasan ang pagdududa, naiintindihan ng Kagawaran ang limitasyong ito na nagbabawal sa sinasadyang pagsubaybay, pagmamanman, o pagmamanman ng mga tao o mamamayan ng U.S., kabilang ang sa pamamagitan ng pagkuha o paggamit ng komersyal na nakuha na personal o nakikilalang impormasyon."

Nilalayon ng diskarte na ito na may pagtanaw sa hinaharap na magtatag ng isang malinaw na landas para sa iba pang mga 'frontier' AI labs upang makipag-ugnayan sa Kagawaran ng Digmaan, na nagpapaunlad ng kolaborasyon habang pinapanatili ang matatag na etikal na pamantayan.

Ang Pangunahing Etikal na Haligi ng OpenAI: Ang Tatlong 'Red Lines'

Gumagana ang OpenAI sa ilalim ng tatlong pangunahing "red lines" na gumagabay sa mga kolaborasyon nito sa mga sensitibong domain tulad ng pambansang seguridad. Ang mga prinsipyong ito, na malawakang ibinabahagi ng iba pang nangungunang institusyon sa pananaliksik ng AI, ay sentro ng kasunduan sa Kagawaran ng Digmaan:

  1. Walang malawakang pagmamanman sa loob ng bansa: Hindi gagamitin ang teknolohiya ng OpenAI para sa malawakang pagsubaybay sa mga mamamayan ng U.S.
  2. Walang sistema ng awtonomong sandata: Ipinagbabawal ang teknolohiya sa pagdirekta ng mga awtonomong sandata nang walang kontrol ng tao.
  3. Walang awtomatikong desisyon na may mataas na pusta: Hindi gagamitin ang mga kagamitan ng OpenAI para sa kritikal na awtomatikong desisyon (hal., mga sistema ng 'social credit') na nangangailangan ng pangangasiwa ng tao.

Iginiit ng OpenAI na ang multi-layered na diskarte nito ay nagbibigay ng mas matibay na proteksyon laban sa hindi katanggap-tangtab na paggamit kumpara sa mga diskarte na pangunahing umaasa lamang sa mga patakaran sa paggamit. Ang pagbibigay-diin na ito sa mahigpit na teknikal at kontraktwal na pananggalang ay nagpapabukod-tangi sa kasunduan nito sa nagbabagong landscape ng depensa ng AI.

Multi-Layered na Proteksyon: Arkitektura, Kontrata, at Dalubhasang Kaalaman ng Tao

Ang lakas ng kasunduan ng OpenAI sa Kagawaran ng Digmaan ay nakasalalay sa komprehensibo, multi-layered na diskarte nito sa proteksyon. Kasama rito ang:

  1. Arkitektura ng Pagde-deploy: Ipinag-uutos ng kasunduan ang isang cloud-only na pagde-deploy, na tinitiyak na mapanatili ng OpenAI ang ganap na pagpapasya sa safety stack nito at pinipigilan ang pagde-deploy ng mga modelong "guardrails off". Ang arkitekturang ito ay likas na naglilimita sa mga kaso ng paggamit tulad ng mga awtonomong nakamamatay na sandata, na karaniwang nangangailangan ng edge deployment. Ang mga mekanismo ng independiyenteng pag-verify, kabilang ang mga classifier, ay nakalagay upang matiyak na hindi nilalabag ang mga 'red lines' na ito.
  2. Matatag na Wika ng Kontrata: Malinaw na idinetalye ng kontrata ang mga pinahihintulutang paggamit, na nangangailangan ng pagsunod sa "lahat ng legal na layunin, alinsunod sa naaangkop na batas, mga kinakailangan sa operasyon, at mahusay na itinatag na mga protocol sa kaligtasan at pangangasiwa." Partikular itong tumutukoy sa mga batas ng U.S. tulad ng Fourth Amendment, National Security Act of 1947, FISA Act of 1978, at DoD Directive 3000.09. Mahalaga, ipinagbabawal nito ang independiyenteng direksyon ng mga awtonomong sandata at hindi pinaghihigpitang pagmamanman ng pribadong impormasyon ng mga tao ng U.S.
  3. Paglahok ng Eksperto sa AI: Ang mga kwalipikadong inhinyero ng OpenAI at mga researcher sa kaligtasan at pagkakahanay ay "forward-deployed" at "in the loop." Ang direktang pangangasiwa ng tao ay nagbibigay ng karagdagang layer ng katiyakan, na tumutulong upang mapabuti ang mga sistema sa paglipas ng panahon at aktibong nagpapatunay sa pagsunod sa mahigpit na tuntunin ng kasunduan.

Ang integrated na diskarte na ito ay nagsisiguro na ang teknolohikal, legal, at pananggalang ng tao ay magkakasamang gumagana upang maiwasan ang maling paggamit.

Kategorya ng 'Red Line'Mga Pananggalang ng OpenAI
Malawakang Pagmamanman sa Loob ng BansaMalinaw na pagbabawal sa kontrata, pagkakahanay sa Fourth Amendment, FISA, National Security Act; pagbubukod ng NSA/ahensya ng intelihensiya mula sa saklaw; mga limitasyon ng cloud-only na pagde-deploy sa pag-access ng data; pag-verify ng mga tauhan ng OpenAI na 'in-the-loop'.
Sistema ng Awtonomong SandataCloud-only na pagde-deploy (walang edge deployment para sa nakamamatay na awtonomiya); malinaw na pagbabawal sa kontrata laban sa independiyenteng direksyon ng mga awtonomong sandata; pagsunod sa DoD Directive 3000.09 para sa pag-verify/balidasyon; mga tauhan ng OpenAI na 'in-the-loop' para sa pangangasiwa.
Awtomatikong Desisyon na may Mataas na PustaMalinaw na wika ng kontrata na nangangailangan ng pag-apruba ng tao para sa mga desisyon na may mataas na pusta; pinananatili ng OpenAI ang ganap na kontrol sa safety stack nito, na pinipigilan ang mga modelong 'guardrails off'; mga tauhan ng OpenAI na 'in-the-loop' upang matiyak na ang pangangasiwa ng tao ay napananatili kung saan kasangkot ang mga kritikal na desisyon.

Pagtugon sa mga Alalahanin at Paghubog ng Hinaharap na Kolaborasyon sa AI

Kinikilala ng OpenAI ang likas na panganib ng advanced na AI at itinuturing na mahalaga ang malalim na kolaborasyon sa pagitan ng gobyerno at mga AI lab para sa pagnaviga sa hinaharap. Ang pakikipag-ugnayan sa Kagawaran ng Digmaan ay nagpapahintulot sa militar ng U.S. na makakuha ng mga makabagong kagamitan habang tinitiyak na ang mga teknolohiyang ito ay idine-deploy nang responsable.

"Sa tingin namin, talagang kailangan ng militar ng U.S. ang matitibay na modelo ng AI upang suportahan ang kanilang misyon lalo na sa harap ng lumalaking banta mula sa mga potensyal na kalaban na lalong nagsasama ng mga teknolohiya ng AI sa kanilang mga sistema," pahayag ng OpenAI. Ang pangakong ito ay binabalanse ng matatag na pagtanggi na ikompromiso ang teknikal na pananggalang para sa pagganap, na binibigyang-diin na ang isang responsableng diskarte ay pinakamahalaga.

Nilalayon din ng kasunduan na pababain ang tensyon at pagyamanin ang mas malawak na kolaborasyon sa loob ng komunidad ng AI. Hiniling ng OpenAI na ang parehong mga tuntunin ng proteksyon ay gawing available sa lahat ng kumpanya ng AI, umaasang mapadali ang katulad na responsableng partnership sa buong industriya. Ito ay bahagi ng mas malawak na diskarte ng OpenAI, gaya ng ipinakita ng patuloy na partnership nito sa Microsoft at mga pagsisikap nito tungo sa pagpapalawak ng AI para sa lahat.

Pagtatakda ng Bagong Pamantayan para sa Pakikipag-ugnayan sa Depensa ng AI

Naniniwala ang OpenAI na ang kasunduan nito ay nagtatakda ng mas mataas na pamantayan para sa klasipikadong pagde-deploy ng AI kumpara sa mga naunang kaayusan, kabilang ang mga tinalakay ng ibang mga lab tulad ng Anthropic. Ang tiwala ay nagmumula sa mga nakapaloob na pundasyong proteksyon: ang cloud-only na pagde-deploy na nagpapanatili ng integridad ng safety stack ng OpenAI, ang malinaw na kontraktwal na garantiya, at ang aktibong paglahok ng mga kwalipikadong tauhan ng OpenAI. Tinitiyak ng komprehensibong balangkas na ito na ang mga tinukoy na 'red lines' — pagpigil sa malawakang pagmamanman sa loob ng bansa at kontrol ng mga awtonomong sandata — ay mahigpit na ipinapatupad. Ang wika ng kontrata na malinaw na tumutukoy sa mga umiiral na batas ay nagsisiguro na kahit na magbago ang mga patakaran sa hinaharap, ang paggamit ng mga sistema ng OpenAI ay dapat pa ring sumunod sa orihinal, mas mahigpit na pamantayan. Ang proaktibong paninindigan na ito ay nagbibigay-diin sa pangako ng OpenAI sa pagbuo at pagde-deploy ng makapangyarihang mga teknolohiya ng AI sa paraan na inuuna ang kaligtasan, etika, at mga demokratikong halaga, kahit sa pinaka-mapanghamong konteksto ng pambansang seguridad.

Mga Karaniwang Tanong

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Manatiling Updated

Kunin ang pinakabagong AI news sa iyong inbox.

I-share