OpenAI at Kagawaran ng Digmaan, Nagpatibay ng Kaligtasan ng AI sa Malinaw na mga Pananggalang
San Francisco, CA – March 3, 2026 – Inanunsyo ng OpenAI ang isang mahalagang pagbabago sa kasunduan nito sa Kagawaran ng Digmaan (DoW), na nagpapatibay sa mahigpit na pananggalang sa kaligtasan sa pagde-deploy ng mga advanced na sistema ng AI sa mga klasipikadong kapaligiran. Binibigyang-diin ng makasaysayang kolaborasyong ito ang isang ibinahaging pangako sa responsableng paggamit ng AI, lalo na sa mga sensitibong aplikasyon sa pambansang seguridad. Ang na-update na kasunduan, na tinapos noong Marso 2, 2026, ay malinaw na nagbabawal sa pagmamanman sa loob ng bansa ng mga tao ng U.S. at nililimitahan ang paggamit ng AI sa mga sistema ng awtonomong sandata, na nagtatakda ng bagong pamantayan para sa etikal na integrasyon ng artificial intelligence sa depensa.
Ang sentro ng pinahusay na kasunduang ito ay ang gawing malinaw ang dating naiintindihan, na tinitiyak na walang kalabuan tungkol sa mga etikal na limitasyon ng teknolohiya ng AI. Binibigyang-diin ng OpenAI na ang balangkas na ito ay idinisenyo upang bigyan ang militar ng U.S. ng mga makabagong kagamitan habang mahigpit na pinaninindigan ang mga prinsipyo ng privacy at kaligtasan.
Muling Pagtukoy sa mga Pananggalang para sa Klasipikadong Pagde-deploy ng AI
Bilang isang proaktibong hakbang upang matugunan ang mga posibleng alalahanin, isinama ng OpenAI at ng Kagawaran ng Digmaan ang karagdagang wika sa kanilang kasunduan, partikular na nililinaw ang mga hangganan ng pagde-deploy ng AI. Malinaw na sinasaad ng bagong probisyong ito na ang mga kagamitan ng OpenAI ay hindi gagamitin para sa pagmamanman sa loob ng bansa ng mga tao ng U.S., kabilang ang sa pamamagitan ng pagkuha o paggamit ng komersyal na nakuha na personal na impormasyon. Bukod pa rito, kinumpirma ng DoW na ang mga ahensya nito ng intelihensiya, tulad ng NSA, ay hindi kasama sa kasunduang ito at mangangailangan ng ganap na bagong tuntunin para sa anumang pagkakaloob ng serbisyo.
Ang na-update na wika sa kasunduan ay nagdedetalye:
- "Alinsunod sa mga naaangkop na batas, kabilang ang Fourth Amendment sa Konstitusyon ng Estados Unidos, National Security Act of 1947, FISA Act of 1978, ang AI system ay hindi sinasadyang gagamitin para sa pagmamanman sa loob ng bansa ng mga tao at mamamayan ng U.S."
- "Upang maiwasan ang pagdududa, naiintindihan ng Kagawaran ang limitasyong ito na nagbabawal sa sinasadyang pagsubaybay, pagmamanman, o pagmamanman ng mga tao o mamamayan ng U.S., kabilang ang sa pamamagitan ng pagkuha o paggamit ng komersyal na nakuha na personal o nakikilalang impormasyon."
Nilalayon ng diskarte na ito na may pagtanaw sa hinaharap na magtatag ng isang malinaw na landas para sa iba pang mga 'frontier' AI labs upang makipag-ugnayan sa Kagawaran ng Digmaan, na nagpapaunlad ng kolaborasyon habang pinapanatili ang matatag na etikal na pamantayan.
Ang Pangunahing Etikal na Haligi ng OpenAI: Ang Tatlong 'Red Lines'
Gumagana ang OpenAI sa ilalim ng tatlong pangunahing "red lines" na gumagabay sa mga kolaborasyon nito sa mga sensitibong domain tulad ng pambansang seguridad. Ang mga prinsipyong ito, na malawakang ibinabahagi ng iba pang nangungunang institusyon sa pananaliksik ng AI, ay sentro ng kasunduan sa Kagawaran ng Digmaan:
- Walang malawakang pagmamanman sa loob ng bansa: Hindi gagamitin ang teknolohiya ng OpenAI para sa malawakang pagsubaybay sa mga mamamayan ng U.S.
- Walang sistema ng awtonomong sandata: Ipinagbabawal ang teknolohiya sa pagdirekta ng mga awtonomong sandata nang walang kontrol ng tao.
- Walang awtomatikong desisyon na may mataas na pusta: Hindi gagamitin ang mga kagamitan ng OpenAI para sa kritikal na awtomatikong desisyon (hal., mga sistema ng 'social credit') na nangangailangan ng pangangasiwa ng tao.
Iginiit ng OpenAI na ang multi-layered na diskarte nito ay nagbibigay ng mas matibay na proteksyon laban sa hindi katanggap-tangtab na paggamit kumpara sa mga diskarte na pangunahing umaasa lamang sa mga patakaran sa paggamit. Ang pagbibigay-diin na ito sa mahigpit na teknikal at kontraktwal na pananggalang ay nagpapabukod-tangi sa kasunduan nito sa nagbabagong landscape ng depensa ng AI.
Multi-Layered na Proteksyon: Arkitektura, Kontrata, at Dalubhasang Kaalaman ng Tao
Ang lakas ng kasunduan ng OpenAI sa Kagawaran ng Digmaan ay nakasalalay sa komprehensibo, multi-layered na diskarte nito sa proteksyon. Kasama rito ang:
- Arkitektura ng Pagde-deploy: Ipinag-uutos ng kasunduan ang isang cloud-only na pagde-deploy, na tinitiyak na mapanatili ng OpenAI ang ganap na pagpapasya sa safety stack nito at pinipigilan ang pagde-deploy ng mga modelong "guardrails off". Ang arkitekturang ito ay likas na naglilimita sa mga kaso ng paggamit tulad ng mga awtonomong nakamamatay na sandata, na karaniwang nangangailangan ng edge deployment. Ang mga mekanismo ng independiyenteng pag-verify, kabilang ang mga classifier, ay nakalagay upang matiyak na hindi nilalabag ang mga 'red lines' na ito.
- Matatag na Wika ng Kontrata: Malinaw na idinetalye ng kontrata ang mga pinahihintulutang paggamit, na nangangailangan ng pagsunod sa "lahat ng legal na layunin, alinsunod sa naaangkop na batas, mga kinakailangan sa operasyon, at mahusay na itinatag na mga protocol sa kaligtasan at pangangasiwa." Partikular itong tumutukoy sa mga batas ng U.S. tulad ng Fourth Amendment, National Security Act of 1947, FISA Act of 1978, at DoD Directive 3000.09. Mahalaga, ipinagbabawal nito ang independiyenteng direksyon ng mga awtonomong sandata at hindi pinaghihigpitang pagmamanman ng pribadong impormasyon ng mga tao ng U.S.
- Paglahok ng Eksperto sa AI: Ang mga kwalipikadong inhinyero ng OpenAI at mga researcher sa kaligtasan at pagkakahanay ay "forward-deployed" at "in the loop." Ang direktang pangangasiwa ng tao ay nagbibigay ng karagdagang layer ng katiyakan, na tumutulong upang mapabuti ang mga sistema sa paglipas ng panahon at aktibong nagpapatunay sa pagsunod sa mahigpit na tuntunin ng kasunduan.
Ang integrated na diskarte na ito ay nagsisiguro na ang teknolohikal, legal, at pananggalang ng tao ay magkakasamang gumagana upang maiwasan ang maling paggamit.
| Kategorya ng 'Red Line' | Mga Pananggalang ng OpenAI |
|---|---|
| Malawakang Pagmamanman sa Loob ng Bansa | Malinaw na pagbabawal sa kontrata, pagkakahanay sa Fourth Amendment, FISA, National Security Act; pagbubukod ng NSA/ahensya ng intelihensiya mula sa saklaw; mga limitasyon ng cloud-only na pagde-deploy sa pag-access ng data; pag-verify ng mga tauhan ng OpenAI na 'in-the-loop'. |
| Sistema ng Awtonomong Sandata | Cloud-only na pagde-deploy (walang edge deployment para sa nakamamatay na awtonomiya); malinaw na pagbabawal sa kontrata laban sa independiyenteng direksyon ng mga awtonomong sandata; pagsunod sa DoD Directive 3000.09 para sa pag-verify/balidasyon; mga tauhan ng OpenAI na 'in-the-loop' para sa pangangasiwa. |
| Awtomatikong Desisyon na may Mataas na Pusta | Malinaw na wika ng kontrata na nangangailangan ng pag-apruba ng tao para sa mga desisyon na may mataas na pusta; pinananatili ng OpenAI ang ganap na kontrol sa safety stack nito, na pinipigilan ang mga modelong 'guardrails off'; mga tauhan ng OpenAI na 'in-the-loop' upang matiyak na ang pangangasiwa ng tao ay napananatili kung saan kasangkot ang mga kritikal na desisyon. |
Pagtugon sa mga Alalahanin at Paghubog ng Hinaharap na Kolaborasyon sa AI
Kinikilala ng OpenAI ang likas na panganib ng advanced na AI at itinuturing na mahalaga ang malalim na kolaborasyon sa pagitan ng gobyerno at mga AI lab para sa pagnaviga sa hinaharap. Ang pakikipag-ugnayan sa Kagawaran ng Digmaan ay nagpapahintulot sa militar ng U.S. na makakuha ng mga makabagong kagamitan habang tinitiyak na ang mga teknolohiyang ito ay idine-deploy nang responsable.
"Sa tingin namin, talagang kailangan ng militar ng U.S. ang matitibay na modelo ng AI upang suportahan ang kanilang misyon lalo na sa harap ng lumalaking banta mula sa mga potensyal na kalaban na lalong nagsasama ng mga teknolohiya ng AI sa kanilang mga sistema," pahayag ng OpenAI. Ang pangakong ito ay binabalanse ng matatag na pagtanggi na ikompromiso ang teknikal na pananggalang para sa pagganap, na binibigyang-diin na ang isang responsableng diskarte ay pinakamahalaga.
Nilalayon din ng kasunduan na pababain ang tensyon at pagyamanin ang mas malawak na kolaborasyon sa loob ng komunidad ng AI. Hiniling ng OpenAI na ang parehong mga tuntunin ng proteksyon ay gawing available sa lahat ng kumpanya ng AI, umaasang mapadali ang katulad na responsableng partnership sa buong industriya. Ito ay bahagi ng mas malawak na diskarte ng OpenAI, gaya ng ipinakita ng patuloy na partnership nito sa Microsoft at mga pagsisikap nito tungo sa pagpapalawak ng AI para sa lahat.
Pagtatakda ng Bagong Pamantayan para sa Pakikipag-ugnayan sa Depensa ng AI
Naniniwala ang OpenAI na ang kasunduan nito ay nagtatakda ng mas mataas na pamantayan para sa klasipikadong pagde-deploy ng AI kumpara sa mga naunang kaayusan, kabilang ang mga tinalakay ng ibang mga lab tulad ng Anthropic. Ang tiwala ay nagmumula sa mga nakapaloob na pundasyong proteksyon: ang cloud-only na pagde-deploy na nagpapanatili ng integridad ng safety stack ng OpenAI, ang malinaw na kontraktwal na garantiya, at ang aktibong paglahok ng mga kwalipikadong tauhan ng OpenAI. Tinitiyak ng komprehensibong balangkas na ito na ang mga tinukoy na 'red lines' — pagpigil sa malawakang pagmamanman sa loob ng bansa at kontrol ng mga awtonomong sandata — ay mahigpit na ipinapatupad. Ang wika ng kontrata na malinaw na tumutukoy sa mga umiiral na batas ay nagsisiguro na kahit na magbago ang mga patakaran sa hinaharap, ang paggamit ng mga sistema ng OpenAI ay dapat pa ring sumunod sa orihinal, mas mahigpit na pamantayan. Ang proaktibong paninindigan na ito ay nagbibigay-diin sa pangako ng OpenAI sa pagbuo at pagde-deploy ng makapangyarihang mga teknolohiya ng AI sa paraan na inuuna ang kaligtasan, etika, at mga demokratikong halaga, kahit sa pinaka-mapanghamong konteksto ng pambansang seguridad.
Orihinal na pinagmulan
https://openai.com/index/our-agreement-with-the-department-of-war/Mga Karaniwang Tanong
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
Manatiling Updated
Kunin ang pinakabagong AI news sa iyong inbox.
