Code Velocity
AI-säkerhet

OpenAI och krigsdepartementets avtal: Säkerställande av säkerhetsspärrar för AI

·7 min läsning·OpenAI·Originalkälla
Dela
OpenAI och krigsdepartementets avtal med säkerhetsspärrar för AI

OpenAI och krigsdepartementet stärker AI-säkerheten med explicita säkerhetsspärrar

San Francisco, CA – 3 mars 2026 – OpenAI har meddelat en betydande uppdatering av sitt avtal med krigsdepartementet (DoW), som förstärker stränga säkerhetsspärrar kring implementeringen av avancerade AI-system i klassificerade miljöer. Detta banbrytande samarbete understryker ett gemensamt engagemang för ansvarsfull AI-användning, särskilt gällande känsliga nationella säkerhetstillämpningar. Det uppdaterade avtalet, som slutfördes den 2 mars 2026, förbjuder uttryckligen inhemsk övervakning av amerikanska personer och begränsar användningen av AI i autonoma vapensystem, vilket sätter en ny standard för etisk integration av artificiell intelligens inom försvaret.

Kärnan i detta förbättrade avtal ligger i att göra det explicit som tidigare var underförstått, vilket säkerställer att det inte finns någon tvetydighet gällande de etiska begränsningarna för AI-teknik. OpenAI betonar att detta ramverk är utformat för att förse den amerikanska militären med toppmoderna verktyg samtidigt som integritets- och säkerhetsprinciper upprätthålls rigoröst.

Omdefiniering av säkerhetsåtgärder för klassificerade AI-implementeringar

I ett proaktivt drag för att bemöta potentiella farhågor har OpenAI och krigsdepartementet infört ytterligare formuleringar i sitt avtal, som specifikt klargör gränserna för AI-implementering. Denna nya klausul fastslår entydigt att OpenAI:s verktyg inte kommer att användas för inhemsk övervakning av amerikanska personer, inklusive genom förvärv eller användning av kommersiellt inhämtad personlig information. Dessutom har DoW bekräftat att dess underrättelsetjänster, såsom NSA, är undantagna från detta avtal och skulle kräva helt nya villkor för eventuell tjänsteförsörjning.

Det uppdaterade språket i avtalet specificerar:

  • "I enlighet med tillämpliga lagar, inklusive det fjärde tillägget till USA:s konstitution, National Security Act från 1947, FISA Act från 1978, ska AI-systemet inte avsiktligt användas för inhemsk övervakning av amerikanska personer och medborgare."
  • "För att undvika tvivel, förstår departementet denna begränsning som ett förbud mot avsiktlig spårning, övervakning eller monitorering av amerikanska personer eller medborgare, inklusive genom upphandling eller användning av kommersiellt inhämtad personlig eller identifierbar information."

Detta framåtblickande tillvägagångssätt syftar till att etablera en tydlig väg för andra banbrytande AI-laboratorier att engagera sig med krigsdepartementet, vilket främjar samarbete samtidigt som orubbliga etiska standarder upprätthålls.

OpenAI:s etiska kärnpelare: De tre röda linjerna

OpenAI arbetar under tre grundläggande "röda linjer" som styr dess samarbeten inom känsliga områden som nationell säkerhet. Dessa principer, som i stort sett delas av andra ledande AI-forskningsinstitutioner, är centrala i avtalet med krigsdepartementet:

  1. Ingen massinhemsk övervakning: OpenAI-teknik kommer inte att användas för omfattande övervakning av amerikanska medborgare.
  2. Inga autonoma vapensystem: Tekniken är förbjuden att styra autonoma vapen utan mänsklig kontroll.
  3. Inga automatiserade beslut med höga insatser: OpenAI-verktyg kommer inte att användas för kritiska automatiserade beslut (t.ex. "sociala kredit"-system) som kräver mänsklig tillsyn.

OpenAI hävdar att dess flerskiktade strategi ger ett mer robust skydd mot oacceptabla användningar jämfört med tillvägagångssätt som primärt förlitar sig enbart på användningspolicyer. Denna betoning på stränga tekniska och avtalsenliga säkerhetsåtgärder utmärker dess avtal i det föränderliga landskapet för försvars-AI.

Flerskiktat skydd: Arkitektur, avtal och mänsklig expertis

Styrkan i OpenAI:s avtal med krigsdepartementet ligger i dess omfattande, flerskiktade skyddsstrategi. Detta inkluderar:

  1. Implementeringsarkitektur: Avtalet föreskriver en molnbaserad implementering, vilket säkerställer att OpenAI bibehåller full diskretion över sin säkerhetsstack och förhindrar implementering av modeller utan "skyddsräcken". Denna arkitektur begränsar i sig användningsfall som autonoma dödliga vapen, som typiskt sett kräver edge-implementering. Oberoende verifieringsmekanismer, inklusive klassificerare, finns på plats för att säkerställa att dessa röda linjer inte överskrids.
  2. Robust avtalsspråk: Kontraktet specificerar uttryckligen tillåtna användningar och kräver efterlevnad av "alla lagliga syften, i enlighet med tillämplig lag, operativa krav och väl etablerade säkerhets- och tillsynsprotokoll". Det hänvisar specifikt till amerikanska lagar som det fjärde tillägget, National Security Act från 1947, FISA Act från 1978 och DoD-direktiv 3000.09. Avgörande är att det förbjuder oberoende styrning av autonoma vapen och okontrollerad övervakning av amerikanska personers privata information.
  3. AI-experters inblandning: Godkända OpenAI-ingenjörer och säkerhets- och anpassningsforskare kommer att vara framåtplacerade och "med i loopen". Denna direkta mänskliga tillsyn ger ett ytterligare lager av försäkran, vilket hjälper till att förbättra system över tid och aktivt verifiera efterlevnaden av avtalets strikta villkor.

Detta integrerade tillvägagångssätt säkerställer att tekniska, juridiska och mänskliga säkerhetsåtgärder alla samverkar för att förhindra missbruk.

Kategori för röd linjeOpenAI:s skyddsåtgärder
Massinhemsk övervakningExplicita avtalsenliga förbud, överensstämmelse med fjärde tillägget, FISA, National Security Act; undantag för NSA/underrättelsetjänster från tillämpningsområdet; molnbaserade distributionsbegränsningar för dataåtkomst; OpenAI-personal 'med i loopen' för verifiering.
Autonoma vapensystemEndast molnbaserad distribution (ingen edge-distribution för dödlig autonomi); explicit avtalsenligt förbud mot oberoende styrning av autonoma vapen; efterlevnad av DoD-direktiv 3000.09 för verifiering/validering; OpenAI-personal 'med i loopen' för tillsyn.
Automatiserade beslut med höga insatserExplicit avtalsspråk som kräver mänskligt godkännande för beslut med höga insatser; OpenAI behåller full kontroll över sin säkerhetsstack, vilket förhindrar modeller utan 'skyddsräcken'; OpenAI-personal 'med i loopen' för att säkerställa mänsklig tillsyn där kritiska beslut är inblandade.

Bemötande av farhågor och skapande av framtida AI-samarbete

OpenAI erkänner de inneboende riskerna med avancerad AI och ser djupt samarbete mellan regeringen och AI-laboratorier som avgörande för att navigera framtiden. Att engagera sig med krigsdepartementet gör det möjligt för den amerikanska militären att få tillgång till banbrytande verktyg samtidigt som det säkerställs att dessa tekniker implementeras ansvarsfullt.

"Vi anser att den amerikanska militären absolut behöver starka AI-modeller för att stödja sitt uppdrag, särskilt med tanke på de växande hoten från potentiella motståndare som i allt högre grad integrerar AI-teknik i sina system", uppgav OpenAI. Detta åtagande balanseras med en orubblig vägran att kompromissa med tekniska säkerhetsåtgärder för prestanda, med betoning på att ett ansvarsfullt tillvägagångssätt är av yttersta vikt.

Avtalet syftar också till att minska spänningarna och främja ett bredare samarbete inom AI-gemenskapen. OpenAI har begärt att samma skyddsvillkor ska göras tillgängliga för alla AI-företag, i hopp om att underlätta liknande ansvarsfulla partnerskap inom branschen. Detta är en del av OpenAI:s bredare strategi, vilket demonstreras genom dess fortsatta partnerskap med Microsoft och ansträngningar mot skalning av AI för alla.

Sätter en ny standard för försvarets AI-engagemang

OpenAI anser att dess avtal sätter en högre standard för klassificerade AI-implementeringar jämfört med tidigare arrangemang, inklusive de som diskuterats av andra laboratorier som Anthropic. Förtroendet härrör från de inbäddade grundläggande skydden: den molnbaserade implementeringen som upprätthåller integriteten i OpenAI:s säkerhetsstack, de explicita avtalsgarantierna och den aktiva inblandningen av godkänd OpenAI-personal.

Detta omfattande ramverk säkerställer att de specificerade röda linjerna – att förhindra massinhemsk övervakning och kontroll av autonoma vapen – upprätthålls robust. Avtalsspråket som uttryckligen hänvisar till befintliga lagar säkerställer att även om policyer ändras i framtiden, måste användningen av OpenAI:s system fortfarande överensstämma med de ursprungliga, strängare standarderna. Denna proaktiva hållning understryker OpenAI:s engagemang för att utveckla och implementera kraftfulla AI-teknologier på ett sätt som prioriterar säkerhet, etik och demokratiska värderingar, även i de mest krävande nationella säkerhetskontexter.

Vanliga frågor

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Håll dig uppdaterad

Få de senaste AI-nyheterna i din inkorg.

Dela