Code Velocity
AIセキュリティ

OpenAI 戦争省との合意:AI安全保護策の確保

·7 分で読めます·OpenAI·元の情報源
共有
OpenAIと戦争省のAI安全保護策に関する合意

OpenAIと戦争省、明示的な安全保護策でAI安全を強化

カリフォルニア州サンフランシスコ – 2026年3月3日 – OpenAIは、戦争省(DoW)との合意に関して重要な更新を発表しました。これにより、機密環境における高度なAIシステムの展開に関する厳格な安全保護策が強化されます。この画期的な協力は、特に国家安全保障に関する機密性の高い用途において、AIの責任ある利用に対する共通のコミットメントを強調するものです。2026年3月2日に最終決定された更新された合意は、米国市民の国内監視を明示的に禁止し、自律型兵器システムにおけるAIの使用を制限することで、防衛における人工知能の倫理的統合に新たな基準を設定します。

この強化された合意の核心は、以前は暗黙の了解であったことを明示することにあり、AI技術の倫理的制約に関する曖昧さを排除します。OpenAIは、このフレームワークが米軍に最先端のツールを提供しつつ、プライバシーと安全の原則を厳格に遵守するように設計されていることを強調しています。

機密AI展開における安全保護策の再定義

潜在的な懸念に対処するための積極的な動きとして、OpenAIと戦争省は、AI展開の境界を具体的に明確にする追加条項を合意に組み込みました。この新しい条項は、OpenAIのツールが、商業的に取得された個人情報の入手または使用を含め、米国市民の国内監視のために使用されないことを明確に述べています。さらに、DoWは、NSAなどの情報機関がこの合意から除外されており、いかなるサービス提供についても全く新しい条件が必要となることを確認しました。

合意の更新された条項は次の通りです。

  • 「米国憲法修正第4条、1947年国家安全保障法、1978年FISA法を含む適用法に従い、AIシステムは米国市民および国民の国内監視のために意図的に使用されてはならない。」
  • 「疑義を避けるため、省は、この制限が、商業的に取得された個人情報または特定可能な情報の調達または使用を含む、米国市民または国民の意図的な追跡、監視、またはモニタリングを禁止するものと理解する。」

この先見的なアプローチは、他の最先端AI研究所が戦争省と連携するための明確な道筋を確立し、揺るぎない倫理基準を維持しながら協力を促進することを目指しています。

OpenAIの核となる倫理的柱:3つのレッドライン

OpenAIは、国家安全保障のような機密性の高い分野での協力を規定する3つの基本的な「レッドライン」の下で事業を行っています。これらの原則は、他の主要なAI研究機関と広く共有されており、戦争省との合意の中心となっています。

  1. 大規模な国内監視の禁止: OpenAIの技術は、米国市民の広範な監視のために使用されません。
  2. 自律型兵器システムの禁止: 人間の制御なしに自律型兵器を指示するために技術を使用することは禁止されています。
  3. 高リスクな自動化された意思決定の禁止: OpenAIのツールは、人間の監視を必要とする重要な自動化された意思決定(例:「ソーシャルクレジット」システム)のために使用されません。

OpenAIは、その多層戦略が、主に使用ポリシーのみに依存するアプローチと比較して、容認できない使用に対するより堅牢な保護を提供すると主張しています。この厳格な技術的および契約上の安全保護策への重点は、防衛AIの進化する状況におけるその合意を際立たせています。

多層的な保護:アーキテクチャ、契約、人間の専門知識

OpenAIと戦争省の合意の強みは、その包括的で多層的な保護アプローチにあります。これには以下が含まれます。

  1. 展開アーキテクチャ: この合意はクラウド専用の展開を義務付けており、OpenAIがその安全スタックに対する完全な裁量権を維持し、「安全保護策解除」モデルの展開を防ぎます。このアーキテクチャは、エッジ展開を必要とすることが多い自律型致死兵器のような使用例を本質的に制限します。これらのレッドラインが踏み越えられないことを保証するために、分類器を含む独立した検証メカニズムが導入されています。
  2. 堅牢な契約条項: 契約は許容される使用を明確に詳細に規定しており、「適用法、運用要件、および確立された安全・監視プロトコルに合致するすべての合法的な目的」を遵守することを求めています。特に、米国憲法修正第4条、1947年国家安全保障法、1978年FISA法、国防総省指令3000.09などの米国法を参照しています。決定的に、自律型兵器の独立した指示と、米国市民のプライベート情報の制約のない監視を禁止しています。
  3. AI専門家の関与: 承認されたOpenAIのエンジニアおよび安全・アライメント研究者は、先行配備され、「イン・ザ・ループ(人間が介在する)」の役割を担います。この直接的な人間の監視は、追加の保証層を提供し、システムの改善を助け、合意の厳格な条件への遵守を積極的に検証します。

この統合されたアプローチは、技術的、法的、および人的な安全保護策がすべて連携して誤用を防ぐことを保証します。

レッドラインカテゴリーOpenAIの保護措置
大規模な国内監視契約上の明示的な禁止、米国憲法修正第4条、FISA、国家安全保障法との整合性;NSA/情報機関の適用範囲からの除外;データアクセスに関するクラウド専用の展開制限;OpenAI担当者によるイン・ザ・ループ検証。
自律型兵器システムクラウド専用展開(致死性自律のためのエッジ展開なし);自律型兵器の独立した指示に対する契約上の明示的な禁止;検証/妥当性確認のための国防総省指令3000.09の遵守;監視のためのOpenAI担当者によるイン・ザ・ループ。
高リスクな自動化された意思決定高リスクな意思決定には人間の承認を要求する契約上の明示的な条項;OpenAIは、独自の安全スタックに対する完全な制御を保持し、「安全保護策解除」モデルを防ぎます;重要な意思決定が関与する場合に人間の監視が維持されることを保証するためのOpenAI担当者によるイン・ザ・ループ。

懸念への対処と将来のAIコラボレーションの構築

OpenAIは、高度なAIに内在するリスクを認識しており、政府とAI研究所間の深い協力が将来を乗り切る上で不可欠であると考えています。戦争省との連携により、米軍は最先端のツールにアクセスできると同時に、これらの技術が責任を持って展開されることを保証できます。

「米国軍は、システムにAI技術を統合する潜在的な敵対勢力からの脅威が増大している現在、その任務を支援するために強力なAIモデルが絶対に必要だと私たちは考えています」とOpenAIは述べています。このコミットメントは、パフォーマンスのために技術的な安全保護策を妥協することを断固として拒否することとバランスが取れており、責任あるアプローチが最優先事項であることを強調しています。

この合意はまた、緊張を緩和し、AIコミュニティ内でのより広範な協力を促進することも目的としています。OpenAIは、同じ保護条件がすべてのAI企業に提供されることを要求しており、業界全体で同様の責任あるパートナーシップを促進することを望んでいます。これは、Microsoftとの継続的なパートナーシップすべての人々のためのAIスケーリングに向けた取り組みによって示されているように、OpenAIのより広範な戦略の一部です。

防衛AI連携のための新たな基準の設定

OpenAIは、その合意が、Anthropicのような他の研究所によって議論されたものを含む以前の取り決めと比較して、機密AI展開のためのより高い基準を設定すると信じています。この自信は、組み込まれた基本的な保護策に由来しています。OpenAIの安全スタックの完全性を維持するクラウド専用の展開、明示的な契約保証、そして承認されたOpenAI担当者の積極的な関与です。

この包括的なフレームワークは、指定されたレッドライン(大規模な国内監視と自律型兵器の制御の防止)が堅固に実施されることを保証します。既存の法律を明示的に参照する契約条項は、たとえ将来的に政策が変更されたとしても、OpenAIシステムの利用は元の、より厳格な基準に依然として従わなければならないことを保証します。この積極的な姿勢は、OpenAIが、最も厳しい国家安全保障の文脈においても、安全性、倫理、民主的価値観を優先する形で強力なAI技術を開発し展開するというコミットメントを強調するものです。

よくある質問

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

最新情報を入手

最新のAIニュースをメールでお届けします。

共有