OpenAIと戦争省、明示的な安全保護策でAI安全を強化
カリフォルニア州サンフランシスコ – 2026年3月3日 – OpenAIは、戦争省(DoW)との合意に関して重要な更新を発表しました。これにより、機密環境における高度なAIシステムの展開に関する厳格な安全保護策が強化されます。この画期的な協力は、特に国家安全保障に関する機密性の高い用途において、AIの責任ある利用に対する共通のコミットメントを強調するものです。2026年3月2日に最終決定された更新された合意は、米国市民の国内監視を明示的に禁止し、自律型兵器システムにおけるAIの使用を制限することで、防衛における人工知能の倫理的統合に新たな基準を設定します。
この強化された合意の核心は、以前は暗黙の了解であったことを明示することにあり、AI技術の倫理的制約に関する曖昧さを排除します。OpenAIは、このフレームワークが米軍に最先端のツールを提供しつつ、プライバシーと安全の原則を厳格に遵守するように設計されていることを強調しています。
機密AI展開における安全保護策の再定義
潜在的な懸念に対処するための積極的な動きとして、OpenAIと戦争省は、AI展開の境界を具体的に明確にする追加条項を合意に組み込みました。この新しい条項は、OpenAIのツールが、商業的に取得された個人情報の入手または使用を含め、米国市民の国内監視のために使用されないことを明確に述べています。さらに、DoWは、NSAなどの情報機関がこの合意から除外されており、いかなるサービス提供についても全く新しい条件が必要となることを確認しました。
合意の更新された条項は次の通りです。
- 「米国憲法修正第4条、1947年国家安全保障法、1978年FISA法を含む適用法に従い、AIシステムは米国市民および国民の国内監視のために意図的に使用されてはならない。」
- 「疑義を避けるため、省は、この制限が、商業的に取得された個人情報または特定可能な情報の調達または使用を含む、米国市民または国民の意図的な追跡、監視、またはモニタリングを禁止するものと理解する。」
この先見的なアプローチは、他の最先端AI研究所が戦争省と連携するための明確な道筋を確立し、揺るぎない倫理基準を維持しながら協力を促進することを目指しています。
OpenAIの核となる倫理的柱:3つのレッドライン
OpenAIは、国家安全保障のような機密性の高い分野での協力を規定する3つの基本的な「レッドライン」の下で事業を行っています。これらの原則は、他の主要なAI研究機関と広く共有されており、戦争省との合意の中心となっています。
- 大規模な国内監視の禁止: OpenAIの技術は、米国市民の広範な監視のために使用されません。
- 自律型兵器システムの禁止: 人間の制御なしに自律型兵器を指示するために技術を使用することは禁止されています。
- 高リスクな自動化された意思決定の禁止: OpenAIのツールは、人間の監視を必要とする重要な自動化された意思決定(例:「ソーシャルクレジット」システム)のために使用されません。
OpenAIは、その多層戦略が、主に使用ポリシーのみに依存するアプローチと比較して、容認できない使用に対するより堅牢な保護を提供すると主張しています。この厳格な技術的および契約上の安全保護策への重点は、防衛AIの進化する状況におけるその合意を際立たせています。
多層的な保護:アーキテクチャ、契約、人間の専門知識
OpenAIと戦争省の合意の強みは、その包括的で多層的な保護アプローチにあります。これには以下が含まれます。
- 展開アーキテクチャ: この合意はクラウド専用の展開を義務付けており、OpenAIがその安全スタックに対する完全な裁量権を維持し、「安全保護策解除」モデルの展開を防ぎます。このアーキテクチャは、エッジ展開を必要とすることが多い自律型致死兵器のような使用例を本質的に制限します。これらのレッドラインが踏み越えられないことを保証するために、分類器を含む独立した検証メカニズムが導入されています。
- 堅牢な契約条項: 契約は許容される使用を明確に詳細に規定しており、「適用法、運用要件、および確立された安全・監視プロトコルに合致するすべての合法的な目的」を遵守することを求めています。特に、米国憲法修正第4条、1947年国家安全保障法、1978年FISA法、国防総省指令3000.09などの米国法を参照しています。決定的に、自律型兵器の独立した指示と、米国市民のプライベート情報の制約のない監視を禁止しています。
- AI専門家の関与: 承認されたOpenAIのエンジニアおよび安全・アライメント研究者は、先行配備され、「イン・ザ・ループ(人間が介在する)」の役割を担います。この直接的な人間の監視は、追加の保証層を提供し、システムの改善を助け、合意の厳格な条件への遵守を積極的に検証します。
この統合されたアプローチは、技術的、法的、および人的な安全保護策がすべて連携して誤用を防ぐことを保証します。
| レッドラインカテゴリー | OpenAIの保護措置 |
|---|---|
| 大規模な国内監視 | 契約上の明示的な禁止、米国憲法修正第4条、FISA、国家安全保障法との整合性;NSA/情報機関の適用範囲からの除外;データアクセスに関するクラウド専用の展開制限;OpenAI担当者によるイン・ザ・ループ検証。 |
| 自律型兵器システム | クラウド専用展開(致死性自律のためのエッジ展開なし);自律型兵器の独立した指示に対する契約上の明示的な禁止;検証/妥当性確認のための国防総省指令3000.09の遵守;監視のためのOpenAI担当者によるイン・ザ・ループ。 |
| 高リスクな自動化された意思決定 | 高リスクな意思決定には人間の承認を要求する契約上の明示的な条項;OpenAIは、独自の安全スタックに対する完全な制御を保持し、「安全保護策解除」モデルを防ぎます;重要な意思決定が関与する場合に人間の監視が維持されることを保証するためのOpenAI担当者によるイン・ザ・ループ。 |
懸念への対処と将来のAIコラボレーションの構築
OpenAIは、高度なAIに内在するリスクを認識しており、政府とAI研究所間の深い協力が将来を乗り切る上で不可欠であると考えています。戦争省との連携により、米軍は最先端のツールにアクセスできると同時に、これらの技術が責任を持って展開されることを保証できます。
「米国軍は、システムにAI技術を統合する潜在的な敵対勢力からの脅威が増大している現在、その任務を支援するために強力なAIモデルが絶対に必要だと私たちは考えています」とOpenAIは述べています。このコミットメントは、パフォーマンスのために技術的な安全保護策を妥協することを断固として拒否することとバランスが取れており、責任あるアプローチが最優先事項であることを強調しています。
この合意はまた、緊張を緩和し、AIコミュニティ内でのより広範な協力を促進することも目的としています。OpenAIは、同じ保護条件がすべてのAI企業に提供されることを要求しており、業界全体で同様の責任あるパートナーシップを促進することを望んでいます。これは、Microsoftとの継続的なパートナーシップやすべての人々のためのAIスケーリングに向けた取り組みによって示されているように、OpenAIのより広範な戦略の一部です。
防衛AI連携のための新たな基準の設定
OpenAIは、その合意が、Anthropicのような他の研究所によって議論されたものを含む以前の取り決めと比較して、機密AI展開のためのより高い基準を設定すると信じています。この自信は、組み込まれた基本的な保護策に由来しています。OpenAIの安全スタックの完全性を維持するクラウド専用の展開、明示的な契約保証、そして承認されたOpenAI担当者の積極的な関与です。
この包括的なフレームワークは、指定されたレッドライン(大規模な国内監視と自律型兵器の制御の防止)が堅固に実施されることを保証します。既存の法律を明示的に参照する契約条項は、たとえ将来的に政策が変更されたとしても、OpenAIシステムの利用は元の、より厳格な基準に依然として従わなければならないことを保証します。この積極的な姿勢は、OpenAIが、最も厳しい国家安全保障の文脈においても、安全性、倫理、民主的価値観を優先する形で強力なAI技術を開発し展開するというコミットメントを強調するものです。
よくある質問
Why did OpenAI engage with the Department of War?
What specific guardrails are in place to prevent domestic surveillance?
How does this agreement prevent the use of OpenAI models for autonomous weapons?
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
What role do OpenAI personnel play in ensuring compliance?
What happens if the Department of War violates the agreement?
Will future changes in law or policy affect the agreement's protections?
最新情報を入手
最新のAIニュースをメールでお届けします。
