title: "OpenAI Savaş Bakanlığı Anlaşması: Yapay Zeka Güvenlik Raylarını Sağlamak" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "tr" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "Yapay Zeka Güvenliği" keywords:
- OpenAI
- Savaş Bakanlığı
- Yapay zeka etiği
- ulusal güvenlik
- Yapay zeka gözetimi
- otonom silahlar
- Yapay zeka güvenlik rayları
- sınıflandırılmış yapay zeka
- savunma sözleşmeleri
- Yapay zeka politikası
- ABD ordusu
- bulut dağıtımı meta_description: "OpenAI, Savaş Bakanlığı ile yaptığı dönüm noktası niteliğindeki anlaşmasını detaylandırıyor. Bu anlaşma, yurt içi gözetim ve otonom silahlara karşı güçlü yapay zeka güvenlik rayları oluşturarak savunma teknolojisi için yeni bir standart belirliyor." image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI ve Savaş Bakanlığı yapay zeka güvenlik rayları anlaşması" quality_score: 94 content_score: 93 seo_score: 95 companies:
- OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
- question: "OpenAI neden Savaş Bakanlığı ile iş birliği yaptı?" answer: "OpenAI, potansiyel rakiplerin yapay zeka entegrasyonundaki artışı fark ederek ABD ordusunu gelişmiş yapay zeka yetenekleriyle donatmak için iş birliği yaptı. Bu ortaklık, OpenAI'ın gizli ortamlarda sorumlu dağıtımı sağlamak için titizlikle geliştirdiği sağlam güvenlik önlemlerinin oluşturulmasına bağlıdır. Amaç, temel güvenlik ve gizlilik standartlarından ödün vermeden sofistike yapay zekanın ulusal güvenlik için kullanılabileceğini göstererek en son teknolojiye sahip araçlar sunmaktır. Ayrıca, OpenAI, Savunma Bakanlığı (DoD) ile yapay zeka laboratuvarları arasındaki gerilimi azaltmayı ve bu dikkatle yapılandırılmış şartlara diğer şirketler için daha geniş erişimi savunmayı hedefledi."
- question: "Yurt içi gözetimi önlemek için hangi özel güvenlik rayları mevcuttur?" answer: "Anlaşma, OpenAI'ın yapay zeka sistemlerinin ABD vatandaşlarının yurt içi gözetimi için kasıtlı kullanımını açıkça yasaklamaktadır; bu, Dördüncü Değişiklik, 1947 Ulusal Güvenlik Yasası ve 1978 FISA Yasası ile uyumludur. Bu, ticari olarak edinilmiş kişisel veya tanımlanabilir bilgilerin kasıtlı takibi, izlenmesi veya bu amaçlarla kullanılmasının katı bir şekilde yasaklanmasını içerir. En önemlisi, Savaş Bakanlığı, NSA gibi istihbarat teşkilatlarının herhangi bir hizmet için ayrı bir anlaşma yapması gerektiğini onaylayarak, bu kısıtlamaları güçlendirmiş ve kötüye kullanıma karşı çoklu yasal ve sözleşmesel koruma katmanları sağlamıştır."
- question: "Bu anlaşma, OpenAI modellerinin otonom silahlar için kullanılmasını nasıl engelliyor?" answer: "Önleme çok yönlüdür. Birincisi, dağıtım mimarisi yalnızca bulut tabanlıdır, yani modeller otonom ölümcül silahlar için kritik olan 'uç cihazlara' dağıtılamaz. İkincisi, sözleşme dili, yapay zeka sisteminin insan kontrolünün gerekli olduğu durumlarda otonom silahları bağımsız olarak yönlendirmek için kullanılmayacağını açıkça belirtmektedir. Ayrıca, Savunma Bakanlığı Direktifi 3000.09 uyarınca titiz doğrulama, validasyon ve testler zorunlu kılınmıştır. Son olarak, güvenlik ve uyum araştırmacıları da dahil olmak üzere yetkili OpenAI personeli süreçte kalmaya devam ederek, bu katı kırmızı çizgilerin aşılmadığına dair ek bir insan denetimi ve güvence katmanı sağlamaktadır."
- question: "OpenAI'ın anlaşmasını diğerlerinden, örneğin Anthropic'inkinden farklı veya daha güçlü kılan nedir?" answer: "OpenAI, çok katmanlı yaklaşımı nedeniyle anlaşmasının daha güçlü garantiler ve güvenlik önlemleri sunduğuna inanmaktadır. Yalnızca kullanım politikalarına dayanabilecek bazı diğer anlaşmaların aksine, OpenAI'ın sözleşmesi, tescilli güvenlik yığınının tamamen işlevsel kalmasını ve kendi kontrolünde olmasını sağlamaktadır. Bulut tabanlı dağıtım mimarisi, tipik olarak uç dağıtımı gerektiren tam otonom silahlar gibi belirli yüksek riskli uygulamaları doğal olarak kısıtlamaktadır. Dahası, yetkili OpenAI personelinin sürekli katılımı, kabul edilemez kullanımlara karşı daha sağlam bir çerçeve oluşturarak aktif insan denetimi ve doğrulaması sağlamakta ve bunun önceki anlaşmaları aştığını iddia etmektedirler."
- question: "OpenAI personeli uyumluluğun sağlanmasında hangi rolü oynar?" answer: "İleri düzeyde konuşlandırılmış mühendisler ve güvenlik ile uyum araştırmacıları da dahil olmak üzere yetkili OpenAI personeli, 'süreçte' kritik bir rol oynamaktadır. Hükümetin teknolojiyi sorumlu bir şekilde entegre etmesine yardımcı olurken, belirlenmiş kırmızı çizgilere uyumu aktif olarak izlerler. Bu doğrudan katılım, OpenAI'ın sistemin yurt içi gözetim veya otonom silah kontrolü gibi yasaklanmış faaliyetler için kullanılmadığını bağımsız olarak doğrulamasına olanak tanır. Devam eden varlıkları, güvenlik raylarının korunmasını ve modellerin güvenlik ve uyumun temel öncelikler olarak sürekli geliştirilmesini sağlayarak ek bir teknik ve etik güvence katmanı sunar."
- question: "Savaş Bakanlığı anlaşmayı ihlal ederse ne olur?" answer: "Bir ihlal durumunda, herhangi bir sözleşme anlaşmasında olduğu gibi, OpenAI sözleşmeyi feshetme hakkını saklı tutar. Bu, Savaş Bakanlığı'nın üzerinde anlaşılan hüküm ve koşullara sıkı sıkıya uymasını sağlayan önemli bir caydırıcı görevi görür. Fesih maddesi, anlaşmada belirlenen güvenlik raylarının ve kırmızı çizgilerin ciddiyetini vurgulamakta, OpenAI'ın yüksek riskli ulusal güvenlik bağlamlarında bile etik ilkelerine bağlı kalma taahhüdünü göstermektedir. OpenAI böyle bir ihlal beklemezken, sözleşmesel hüküm açık bir başvuru yolu sunmaktadır."
- question: "Yasa veya politikalardaki gelecekteki değişiklikler anlaşmanın korumalarını etkileyecek mi?" answer: "Hayır, anlaşma, yasa veya politikalardaki gelecekteki değişikliklere karşı dirençli olacak şekilde tasarlanmıştır. Dördüncü Değişiklik, Ulusal Güvenlik Yasası, FISA Yasası ve Savunma Bakanlığı Direktifi 3000.09 gibi mevcut gözetim ve otonom silah yasalarını ve politikalarını olduğu gibi açıkça referans almaktadır. Bu, bu yasa veya politikaların gelecekte değiştirilse bile, bu sözleşme kapsamındaki OpenAI sistemlerinin kullanımının orijinal anlaşmada yansıtılan katı standartlara uyması gerektiği anlamına gelir. Bu ileri görüşlü madde, güvenlik önlemlerinin potansiyel olarak aşınmasına karşı güçlü ve kalıcı bir koruma katmanı sağlar."
# OpenAI ve Savaş Bakanlığı, Açık Güvenlik Rayları ile Yapay Zeka Güvenliğini Güçlendiriyor
**San Francisco, CA – 3 Mart 2026** – OpenAI, Savaş Bakanlığı (DoW) ile yaptığı anlaşmada önemli bir güncelleme duyurdu. Bu güncelleme, sınıflandırılmış ortamlarda gelişmiş yapay zeka sistemlerinin dağıtımı etrafındaki katı güvenlik raylarını pekiştiriyor. Bu dönüm noktası niteliğindeki iş birliği, özellikle hassas ulusal güvenlik uygulamalarıyla ilgili olarak sorumlu yapay zeka kullanımına yönelik ortak bir taahhüdü vurgulamaktadır. 2 Mart 2026'da nihai hale getirilen güncellenmiş anlaşma, ABD vatandaşlarının yurt içi gözetimini açıkça yasaklamakta ve otonom silah sistemlerinde yapay zeka kullanımını kısıtlayarak savunmada yapay zekanın etik entegrasyonu için yeni bir standart belirlemektedir.
Bu geliştirilmiş anlaşmanın özü, daha önce anlaşılanı açıkça belirtmekte ve yapay zeka teknolojisinin etik sınırlamaları konusunda hiçbir belirsizliğe yer bırakmamaktadır. OpenAI, bu çerçevenin ABD ordusuna en son teknolojiye sahip araçları sağlarken gizlilik ve güvenlik ilkelerini titizlikle sürdürmek için tasarlandığını vurgulamaktadır.
## Sınıflandırılmış Yapay Zeka Dağıtımları İçin Güvenlik Önlemlerini Yeniden Tanımlamak
Potansiyel endişeleri gidermek amacıyla proaktif bir adım olarak, OpenAI ve Savaş Bakanlığı anlaşmalarına, yapay zeka dağıtımının sınırlarını özel olarak açıklayan ek bir dil eklemişlerdir. Bu yeni madde, OpenAI'ın araçlarının, ticari olarak edinilmiş kişisel bilgilerin elde edilmesi veya kullanılması da dahil olmak üzere, ABD vatandaşlarının yurt içi gözetimi için kullanılmayacağını kesin bir dille belirtmektedir. Ayrıca, Savaş Bakanlığı, NSA gibi istihbarat teşkilatlarının bu anlaşmanın dışında olduğunu ve herhangi bir hizmet sunumu için tamamen yeni şartlar gerektireceğini doğrulamıştır.
Anlaşmadaki güncellenmiş dil şunları detaylandırmaktadır:
- "Amerika Birleşik Devletleri Anayasası'nın Dördüncü Değişikliği, 1947 Ulusal Güvenlik Yasası, 1978 FISA Yasası dahil olmak üzere yürürlükteki yasalara uygun olarak, yapay zeka sistemi ABD vatandaşlarının yurt içi gözetimi için kasıtlı olarak kullanılmayacaktır."
- "Şüpheye mahal vermemek için, Bakanlık bu kısıtlamanın, ticari olarak edinilmiş kişisel veya tanımlanabilir bilgilerin tedarik edilmesi veya kullanılması da dahil olmak üzere, ABD vatandaşlarının kasıtlı olarak takip edilmesi, gözetlenmesi veya izlenmesini yasakladığını anlamaktadır."
Bu ileri görüşlü yaklaşım, diğer öncü yapay zeka laboratuvarlarının Savaş Bakanlığı ile iş birliği yapması için net bir yol oluşturmayı ve iş birliğini teşvik ederken sarsılmaz etik standartları sürdürmeyi amaçlamaktadır.
## OpenAI'ın Temel Etik Sütunları: Üç Kırmızı Çizgi
OpenAI, ulusal güvenlik gibi hassas alanlardaki iş birliklerini yöneten üç temel "kırmızı çizgi" altında faaliyet göstermektedir. Diğer önde gelen yapay zeka araştırma kurumları tarafından da büyük ölçüde paylaşılan bu ilkeler, Savaş Bakanlığı ile yapılan anlaşmanın merkezindedir:
1. **Kitlesel yurt içi gözetim yok:** OpenAI teknolojisi, ABD vatandaşlarının yaygın izlenmesi için kullanılmayacaktır.
2. **Otonom silah sistemleri yok:** Teknoloji, insan kontrolü olmaksızın otonom silahları yönlendirmek için yasaklanmıştır.
3. **Yüksek riskli otomatik kararlar yok:** OpenAI araçları, insan denetimi gerektiren kritik otomatik kararlar (örn. "sosyal kredi" sistemleri) için kullanılmayacaktır.
OpenAI, çok katmanlı stratejisinin, yalnızca kullanım politikalarına dayanan yaklaşımlara kıyasla kabul edilemez kullanımlara karşı daha sağlam koruma sağladığını iddia etmektedir. Katı teknik ve sözleşmesel güvenlik önlemlerine verilen bu vurgu, savunma yapay zekasının gelişen ortamında anlaşmasını farklılaştırmaktadır.
## Çok Katmanlı Koruma: Mimari, Sözleşme ve İnsan Uzmanlığı
OpenAI'ın Savaş Bakanlığı ile yaptığı anlaşmanın gücü, korumaya yönelik kapsamlı, çok katmanlı yaklaşımında yatmaktadır. Bu şunları içerir:
1. **Dağıtım Mimarisi:** Anlaşma, OpenAI'ın güvenlik yığını üzerinde tam takdir yetkisi sürdürmesini ve "güvenlik önlemleri devre dışı" modellerinin dağıtımını önlemesini sağlayan yalnızca bulut tabanlı bir dağıtımı zorunlu kılar. Bu mimari, tipik olarak uç dağıtımı gerektiren otonom ölümcül silahlar gibi kullanım durumlarını doğal olarak kısıtlar. Bu kırmızı çizgilerin aşılmamasını sağlamak için sınıflandırıcılar da dahil olmak üzere bağımsız doğrulama mekanizmaları mevcuttur.
2. **Sağlam Sözleşmesel Dil:** Sözleşme, "yürürlükteki yasalara, operasyonel gereksinimlere ve iyi belirlenmiş güvenlik ve denetim protokollerine uygun olarak tüm yasal amaçlar"a uyumu gerektiren izin verilen kullanımları açıkça detaylandırmaktadır. Özellikle, ABD yasaları olan Dördüncü Değişiklik, 1947 Ulusal Güvenlik Yasası, 1978 FISA Yasası ve Savunma Bakanlığı Direktifi 3000.09'a atıfta bulunmaktadır. En önemlisi, otonom silahların bağımsız yönlendirilmesini ve ABD vatandaşlarının özel bilgilerinin kısıtlanmamış izlenmesini yasaklamaktadır.
3. **Yapay Zeka Uzmanı Katılımı:** Yetkili OpenAI mühendisleri ile güvenlik ve uyum araştırmacıları ileri düzeyde konuşlandırılacak ve "süreçte" olacaklardır. Bu doğrudan insan denetimi, sistemleri zamanla iyileştirmeye ve anlaşmanın katı şartlarına uyumu aktif olarak doğrulamaya yardımcı olan ek bir güvence katmanı sağlar.
Bu entegre yaklaşım, kötüye kullanımı önlemek için teknolojik, yasal ve insani güvenlik önlemlerinin birlikte çalışmasını sağlar.
| Kırmızı Çizgi Kategorisi | OpenAI'ın Koruyucu Önlemleri |
| :-------------------------------- | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ |
| **Kitlesel Yurt İçi Gözetim** | Açık sözleşmesel yasaklama, Dördüncü Değişiklik, FISA, Ulusal Güvenlik Yasası ile uyum; NSA/istihbarat teşkilatlarının kapsam dışında bırakılması; veri erişimine ilişkin yalnızca bulut tabanlı dağıtım kısıtlamaları; süreçte yer alan OpenAI personelinin doğrulaması. |
| **Otonom Silah Sistemleri** | Yalnızca bulut tabanlı dağıtım (ölümcül otonomi için uç dağıtımı yok); otonom silahların bağımsız yönlendirilmesine karşı açık sözleşmesel yasaklama; doğrulama/validasyon için Savunma Bakanlığı Direktifi 3000.09'a uyum; denetim için süreçte yer alan OpenAI personeli. |
| **Yüksek Riskli Otomatik Kararlar** | Yüksek riskli kararlar için insan onayını gerektiren açık sözleşmesel dil; OpenAI'ın güvenlik yığını üzerinde tam kontrolünü koruması, "güvenlik önlemleri devre dışı" modellerinin önlenmesi; kritik kararların söz konusu olduğu yerlerde insan denetiminin sürdürülmesini sağlamak için süreçte yer alan OpenAI personeli. |
## Endişeleri Gidermek ve Gelecekteki Yapay Zeka İş Birliğini Şekillendirmek
OpenAI, gelişmiş yapay zekanın doğasında var olan riskleri kabul etmekte ve geleceği yönlendirmek için hükümet ile yapay zeka laboratuvarları arasında derin iş birliğini temel olarak görmektedir. Savaş Bakanlığı ile iş birliği yapmak, ABD ordusunun en son teknolojiye sahip araçlara erişmesine olanak tanırken, bu teknolojilerin sorumlu bir şekilde dağıtılmasını sağlamaktadır.
"ABD ordusunun, özellikle sistemlerine giderek daha fazla yapay zeka teknolojisi entegre eden potansiyel rakiplerden gelen artan tehditler karşısında görevlerini desteklemek için kesinlikle güçlü yapay zeka modellerine ihtiyacı olduğunu düşünüyoruz," diyen OpenAI, bu taahhüdü performansa yönelik teknik güvenlik önlemlerinden ödün vermemeye yönelik sarsılmaz bir kararlılıkla dengeleyerek sorumlu bir yaklaşımın önceliğini vurgulamaktadır.
Anlaşma ayrıca gerilimleri azaltmayı ve yapay zeka topluluğu içinde daha geniş iş birliğini teşvik etmeyi amaçlamaktadır. OpenAI, aynı koruyucu şartların tüm yapay zeka şirketlerine sunulmasını talep ederek sektör genelinde benzer sorumlu ortaklıkları kolaylaştırmayı ummaktadır. Bu, OpenAI'ın [devam eden Microsoft ortaklığı](/tr/continuing-microsoft-partnership) ve [herkes için yapay zekayı ölçeklendirme](/tr/scaling-ai-for-everyone) çabalarıyla gösterdiği daha geniş stratejisinin bir parçasıdır.
## Savunma Yapay Zeka Etkileşimi İçin Yeni Bir Standart Belirlemek
OpenAI, anlaşmasının, Anthropic gibi diğer laboratuvarların tartıştığılar da dahil olmak üzere önceki düzenlemelere kıyasla sınıflandırılmış yapay zeka dağıtımları için daha yüksek bir standart belirlediğine inanmaktadır. Güven, yerleşik temel korumalardan kaynaklanmaktadır: OpenAI'ın güvenlik yığınının bütünlüğünü koruyan yalnızca bulut tabanlı dağıtım, açık sözleşmesel garantiler ve yetkili OpenAI personelinin aktif katılımı.
Bu kapsamlı çerçeve, belirtilen kırmızı çizgilerin – kitlesel yurt içi gözetimi ve otonom silah kontrolünü önlemek – sağlam bir şekilde uygulanmasını sağlamaktadır. Mevcut yasalara açıkça atıfta bulunan sözleşmesel dil, politikalar gelecekte değişse bile, OpenAI sistemlerinin kullanımının orijinal, daha katı standartlara uyması gerektiğini garanti eder. Bu proaktif duruş, OpenAI'ın en zorlu ulusal güvenlik bağlamlarında bile güçlü yapay zeka teknolojilerini güvenlik, etik ve demokratik değerlere öncelik veren bir şekilde geliştirme ve dağıtma taahhüdünün altını çizmektedir.
Sık Sorulan Sorular
Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.
Güncel Kalın
En son yapay zeka haberlerini e-postanıza alın.
