Code Velocity
AI-sikkerhet

OpenAIs avtale med Krigsdepartementet: Sikrer AI-sikkerhetsbarrierer

·7 min lesing·OpenAI·Opprinnelig kilde
Del
OpenAI og Krigsdepartementets avtale med AI-sikkerhetsbarrierer

title: "OpenAIs avtale med Krigsdepartementet: Sikrer AI-sikkerhetsbarrierer" slug: "our-agreement-with-the-department-of-war" date: "2026-03-03" lang: "no" source: "https://openai.com/index/our-agreement-with-the-department-of-war/" category: "AI-sikkerhet" keywords:

  • OpenAI
  • Krigsdepartementet
  • AI-etikk
  • nasjonal sikkerhet
  • AI-overvåking
  • autonome våpen
  • AI-sikkerhetsbarrierer
  • klassifisert AI
  • forsvarskontrakter
  • AI-politikk
  • USAs militære
  • skyutrulling meta_description: 'OpenAI detaljerer sin landemerkeavtale med Krigsdepartementet, som etablerer robuste AI-sikkerhetsbarrierer mot innenlands overvåking og autonome våpen, og setter en ny standard for forsvarsteknologi.' image: "/images/articles/our-agreement-with-the-department-of-war.png" image_alt: "OpenAI og Krigsdepartementets avtale med AI-sikkerhetsbarrierer" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 7 faq:
  • question: "Hvorfor inngikk OpenAI en avtale med Krigsdepartementet?" answer: "OpenAI inngikk avtalen for å utstyre det amerikanske militæret med avanserte AI-kapasiteter, og anerkjente den økende integreringen av AI fra potensielle motstandere. Dette partnerskapet er betinget av etableringen av robuste sikkerhetsmekanismer, som OpenAI omhyggelig utviklet for å sikre ansvarlig utrulling i klassifiserte miljøer. Målet er å tilby banebrytende verktøy samtidig som strenge etiske prinsipper opprettholdes, og vise at sofistikert AI kan utnyttes for nasjonal sikkerhet uten å kompromittere grunnleggende sikkerhets- og personvernstandarder. Videre siktet OpenAI mot å de-eskalere spenninger mellom DoD og AI-laboratorier, og argumenterte for bredere tilgang til disse nøye strukturerte vilkårene for andre selskaper."
  • question: "Hvilke spesifikke sikkerhetsbarrierer er på plass for å forhindre innenlands overvåking?" answer: "Avtalen forbyr eksplisitt bevisst bruk av OpenAIs AI-systemer for innenlands overvåking av amerikanske borgere eller statsborgere, i tråd med det fjerde grunnlovstillegget, nasjonal sikkerhetslov av 1947 og FISA-loven av 1978. Dette inkluderer et strengt forbud mot bevisst sporing, overvåking eller bruk av kommersielt innhentet personlig eller identifiserbar informasjon til slike formål. Avgjørende er at Krigsdepartementet bekreftet at etterretningsbyråer som NSA ville kreve en separat avtale for enhver tjeneste, noe som forsterker disse begrensningene og gir flere juridiske og kontraktsmessige beskyttelseslag mot misbruk."
  • question: "Hvordan forhindrer denne avtalen bruken av OpenAIs modeller for autonome våpen?" answer: "Forebyggingen er mangefasettert. For det første er utrullingsarkitekturen kun skybasert, noe som betyr at modeller ikke kan distribueres på 'kant-enheter' som er kritiske for autonome dødelige våpen. For det andre angir kontraktsspråket spesifikt at AI-systemet ikke vil bli brukt til å uavhengig styre autonome våpen der menneskelig kontroll er påkrevd. Det krever også streng verifisering, validering og testing i henhold til DoD-direktiv 3000.09. Til slutt, autorisert OpenAI-personell, inkludert sikkerhets- og justeringsforskere, forblir 'med i loopen', noe som gir et ekstra lag med menneskelig tilsyn og forsikring om at disse strenge røde linjene ikke overskrides."
  • question: "Hva gjør OpenAIs avtale annerledes eller sterkere enn andres, for eksempel Anthropics?" answer: "OpenAI mener at avtalen deres tilbyr sterkere garantier og sikkerhetsmekanismer på grunn av dens flerlags tilnærming. I motsetning til noen andre avtaler som kanskje bare er avhengige av bruksretningslinjer, sikrer OpenAIs kontrakt at den proprietære sikkerhetsstacken forblir fullt operativ og under dens kontroll. Den skybaserte utrullingsarkitekturen begrenser i seg selv visse høyrisikoapplikasjoner, som fullt autonome våpen, som typisk krever kant-utrulling. Videre gir den kontinuerlige involveringen av autorisert OpenAI-personell aktiv menneskelig tilsyn og verifisering, noe som skaper et mer robust rammeverk mot uakseptable bruksområder, som de hevder overgår tidligere avtaler."
  • question: "Hvilken rolle spiller OpenAI-personell for å sikre overholdelse?" answer: "Autorisert OpenAI-personell, inkludert fremskutt plasserte ingeniører og sikkerhets- og justeringsforskere, spiller en kritisk 'i loopen'-rolle. De hjelper regjeringen med å integrere teknologien ansvarlig, samtidig som de aktivt overvåker overholdelsen av de etablerte røde linjene. Denne direkte involveringen gjør at OpenAI uavhengig kan verifisere at systemet ikke brukes til forbudte aktiviteter, som innenlands overvåking eller kontroll av autonome våpen. Deres kontinuerlige tilstedeværelse sikrer at sikkerhetsbarrierer opprettholdes, og modeller kontinuerlig forbedres med sikkerhet og justering som kjerneprioriteter, noe som gir et ekstra lag med teknisk og etisk forsikring."
  • question: "Hva skjer hvis Krigsdepartementet bryter avtalen?" answer: "I tilfelle et brudd, som med enhver kontraktsavtale, beholder OpenAI retten til å si opp kontrakten. Dette fungerer som en betydelig avskrekking, og sikrer at Krigsdepartementet strengt overholder de avtalte vilkårene. Oppsigelsesklausulen understreker alvoret i sikkerhetsbarrierene og de røde linjene som er etablert i avtalen, og demonstrerer OpenAIs forpliktelse til å opprettholde sine etiske prinsipper selv i nasjonale sikkerhetskontekster med høy risiko. Selv om OpenAI ikke forventer et slikt brudd, gir kontraktsbestemmelsen en klar løsning."
  • question: "Vil fremtidige lov- eller policyendringer påvirke avtalens beskyttelse?" answer: "Nei, avtalen er utformet for å være motstandsdyktig mot fremtidige endringer i lov eller policy. Den refererer eksplisitt til gjeldende overvåkings- og autonome våpenlover og -politikker, som det fjerde grunnlovstillegget, nasjonal sikkerhetslov, FISA-loven og DoD-direktiv 3000.09, slik de eksisterer i dag. Dette betyr at selv om disse lovene eller policyene skulle bli endret i fremtiden, må bruken av OpenAIs systemer under denne kontrakten fortsatt overholde de strenge standardene som gjenspeiles i den opprinnelige avtalen. Denne fremtidsrettede klausulen gir et sterkt, varig lag med beskyttelse mot potensiell uthuling av sikkerhetsmekanismer."

OpenAI og Krigsdepartementet forsterker AI-sikkerheten med eksplisitte sikkerhetsbarrierer

San Francisco, CA – 3. mars 2026 – OpenAI har kunngjort en betydelig oppdatering av sin avtale med Krigsdepartementet (DoW), som forsterker strenge sikkerhetsbarrierer rundt utrulling av avanserte AI-systemer i klassifiserte miljøer. Dette landemerkesamarbeidet understreker en felles forpliktelse til ansvarlig AI-bruk, spesielt når det gjelder sensitive nasjonale sikkerhetsapplikasjoner. Den oppdaterte avtalen, ferdigstilt 2. mars 2026, forbyr eksplisitt innenlands overvåking av amerikanske borgere og begrenser bruken av AI i autonome våpensystemer, og setter en ny standard for etisk integrering av kunstig intelligens i forsvar.

Kjernen i denne forbedrede avtalen ligger i å gjøre eksplisitt det som tidligere var underforstått, for å sikre at det ikke er tvetydighet angående de etiske begrensningene for AI-teknologi. OpenAI understreker at dette rammeverket er designet for å gi det amerikanske militæret toppmoderne verktøy, samtidig som personvern- og sikkerhetsprinsipper strengt opprettholdes.

Omdefinering av sikkerhetstiltak for klassifiserte AI-utrullinger

I et proaktivt trekk for å adressere potensielle bekymringer har OpenAI og Krigsdepartementet innlemmet ytterligere språk i avtalen, som spesifikt klargjør grensene for AI-utrulling. Denne nye klausulen slår utvetydig fast at OpenAIs verktøy ikke vil bli brukt til innenlands overvåking av amerikanske borgere, inkludert gjennom anskaffelse eller bruk av kommersielt innhentet personlig informasjon. Videre har Krigsdepartementet bekreftet at dets etterretningsbyråer, som NSA, er ekskludert fra denne avtalen og ville kreve helt nye vilkår for enhver tjenesteytelse.

Det oppdaterte språket i avtalen spesifiserer:

  • "I samsvar med gjeldende lover, inkludert det fjerde grunnlovstillegget til USAs grunnlov, nasjonal sikkerhetslov av 1947, FISA-loven av 1978, skal AI-systemet ikke bevisst brukes til innenlands overvåking av amerikanske borgere og statsborgere."
  • "For å unngå tvil, forstår Departementet denne begrensningen til å forby bevisst sporing, overvåking eller overvåking av amerikanske borgere eller statsborgere, inkludert gjennom anskaffelse eller bruk av kommersielt innhentet personlig eller identifiserbar informasjon."

Denne fremtidsrettede tilnærmingen tar sikte på å etablere en klar vei for andre banebrytende AI-laboratorier til å engasjere seg med Krigsdepartementet, og fremme samarbeid samtidig som urokkelige etiske standarder opprettholdes.

OpenAIs kjerneetiske pilarer: De tre røde linjene

OpenAI opererer under tre grunnleggende "røde linjer" som styrer samarbeidet i sensitive domener som nasjonal sikkerhet. Disse prinsippene, i stor grad delt av andre ledende AI-forskningsinstitusjoner, er sentrale i avtalen med Krigsdepartementet:

  1. Ingen masseovervåking av innenlandske borgere: OpenAI-teknologi vil ikke bli brukt til utbredt overvåking av amerikanske borgere.
  2. Ingen autonome våpensystemer: Teknologien er forbudt fra å styre autonome våpen uten menneskelig kontroll.
  3. Ingen automatiske høyrisikobeslutninger: OpenAI-verktøy vil ikke bli brukt til kritiske automatiske beslutninger (f.eks. "sosialt kredittsystem") som krever menneskelig tilsyn.

OpenAI hevder at den flerlagsstrategien gir mer robust beskyttelse mot uakseptable bruksområder sammenlignet med tilnærminger som primært kun er avhengige av bruksretningslinjer. Denne vektleggingen av strenge tekniske og kontraktsmessige sikkerhetsmekanismer skiller avtalen i det utviklende landskapet av forsvars-AI.

Flerlagsbeskyttelse: Arkitektur, kontrakt og menneskelig ekspertise

Styrken i OpenAIs avtale med Krigsdepartementet ligger i dens omfattende, flerlags tilnærming til beskyttelse. Dette inkluderer:

  1. Utrullingsarkitektur: Avtalen krever en skybasert utrulling, som sikrer at OpenAI opprettholder full diskresjon over sin sikkerhetsstack og forhindrer utrulling av modeller "uten sikkerhetsbarrierer". Denne arkitekturen begrenser i seg selv bruksområder som autonome dødelige våpen, som typisk krever kant-utrulling. Uavhengige verifiseringsmekanismer, inkludert klassifikatorer, er på plass for å sikre at disse røde linjene ikke overskrides.
  2. Robust kontraktsmessig språk: Kontrakten beskriver eksplisitt tillatte bruksområder, og krever overholdelse av "alle lovlige formål, i samsvar med gjeldende lov, operasjonelle krav og veletablerte sikkerhets- og tilsynsprotokoller." Den refererer spesifikt til amerikanske lover som det fjerde grunnlovstillegget, nasjonal sikkerhetslov av 1947, FISA-loven av 1978, og DoD-direktiv 3000.09. Avgjørende er at den forbyr uavhengig styring av autonome våpen og ubegrenset overvåking av amerikanske borgeres private informasjon.
  3. AI-ekspertinvolvering: Autoriserte OpenAI-ingeniører og sikkerhets- og justeringsforskere vil være fremskutt plassert og "med i loopen." Dette direkte menneskelige tilsynet gir et ekstra lag med forsikring, og bidrar til å forbedre systemer over tid og aktivt verifisere overholdelse av avtalens strenge vilkår.

Denne integrerte tilnærmingen sikrer at teknologiske, juridiske og menneskelige sikkerhetsmekanismer alle jobber sammen for å forhindre misbruk.

Kategori for rød linjeOpenAIs beskyttelsestiltak
Masseovervåking av innenlandske borgereEksplisitt kontraktsmessig forbud, i tråd med fjerde grunnlovstillegg, FISA, nasjonal sikkerhetslov; ekskludering av NSA/etterretningsbyråer fra omfanget; skybaserte utrullingsbegrensninger for datatilgang; OpenAI-personell 'med i loopen'-verifisering.
Autonome våpensystemerSkybasert utrulling (ingen kant-utrulling for dødelig autonomi); eksplisitt kontraktsmessig forbud mot uavhengig styring av autonome våpen; overholdelse av DoD-direktiv 3000.09 for verifisering/validering; OpenAI-personell 'med i loopen' for tilsyn.
Automatiske høyrisikobeslutningerEksplisitt kontraktsmessig språk som krever menneskelig godkjenning for høyrisikobeslutninger; OpenAI beholder full kontroll over sin sikkerhetsstack, og forhindrer modeller "uten sikkerhetsbarrierer"; OpenAI-personell 'med i loopen' for å sikre at menneskelig tilsyn opprettholdes der kritiske beslutninger er involvert.

Adressering av bekymringer og fremtidig AI-samarbeid

OpenAI anerkjenner de iboende risikoene ved avansert AI og ser et dypt samarbeid mellom regjeringen og AI-laboratorier som avgjørende for å navigere fremtiden. Å engasjere seg med Krigsdepartementet gjør at det amerikanske militæret får tilgang til banebrytende verktøy, samtidig som det sikres at disse teknologiene distribueres ansvarlig.

"Vi mener det amerikanske militæret absolutt trenger sterke AI-modeller for å støtte sitt oppdrag, spesielt i møte med økende trusler fra potensielle motstandere som i økende grad integrerer AI-teknologier i sine systemer," uttalte OpenAI. Denne forpliktelsen er balansert med en urokkelig nektelse av å kompromittere tekniske sikkerhetsmekanismer for ytelse, og understreker at en ansvarlig tilnærming er avgjørende.

Avtalen tar også sikte på å de-eskalere spenninger og fremme bredere samarbeid innenfor AI-samfunnet. OpenAI har bedt om at de samme beskyttende vilkårene gjøres tilgjengelige for alle AI-selskaper, i håp om å legge til rette for lignende ansvarlige partnerskap i hele bransjen. Dette er en del av OpenAIs bredere strategi, som demonstrert av dets fortsatte Microsoft-partnerskap og innsats mot å skalere AI for alle.

Setter en ny standard for forsvars-AI-engasjement

OpenAI mener avtalen setter en høyere standard for klassifiserte AI-utrullinger sammenlignet med tidligere avtaler, inkludert de som er diskutert av andre laboratorier som Anthropic. Tilliten stammer fra de grunnleggende beskyttelsene som er innebygd: den skybaserte utrullingen som opprettholder integriteten til OpenAIs sikkerhetsstack, de eksplisitte kontraktsgarantiene og den aktive involveringen av autorisert OpenAI-personell.

Dette omfattende rammeverket sikrer at de spesifiserte røde linjene – som forhindrer masseovervåking av innenlandske borgere og kontroll av autonome våpen – håndheves robust. Kontraktsspråket som eksplisitt refererer til eksisterende lover, sikrer at selv om retningslinjer endres i fremtiden, må bruken av OpenAIs systemer fortsatt overholde de opprinnelige, strengere standardene. Denne proaktive holdningen understreker OpenAIs forpliktelse til å utvikle og distribuere kraftige AI-teknologier på en måte som prioriterer sikkerhet, etikk og demokratiske verdier, selv i de mest krevende nasjonale sikkerhetskontekstene.

Ofte stilte spørsmål

Why did OpenAI engage with the Department of War?
OpenAI engaged to equip the U.S. military with advanced AI capabilities, recognizing the increasing integration of AI by potential adversaries. This partnership is contingent on establishing robust safeguards, which OpenAI meticulously developed to ensure responsible deployment in classified environments. The goal is to provide cutting-edge tools while upholding strict ethical principles, demonstrating that sophisticated AI can be leveraged for national security without compromising fundamental safety and privacy standards. Furthermore, OpenAI aimed to de-escalate tensions between the DoD and AI labs, advocating for broader access to these carefully structured terms for other companies.
What specific guardrails are in place to prevent domestic surveillance?
The agreement explicitly prohibits the intentional use of OpenAI's AI systems for domestic surveillance of U.S. persons or nationals, aligning with the Fourth Amendment, National Security Act of 1947, and FISA Act of 1978. This includes a strict ban on deliberate tracking, monitoring, or the use of commercially acquired personal or identifiable information for such purposes. Crucially, the Department of War affirmed that intelligence agencies like the NSA would require a separate agreement for any service, reinforcing these limitations and providing multiple legal and contractual layers of protection against misuse.
How does this agreement prevent the use of OpenAI models for autonomous weapons?
Prevention is multi-faceted. Firstly, the deployment architecture is cloud-only, meaning models cannot be deployed on 'edge devices' critical for autonomous lethal weapons. Secondly, the contract language specifically states that the AI system will not be used to independently direct autonomous weapons where human control is required. It also mandates rigorous verification, validation, and testing as per DoD Directive 3000.09. Lastly, cleared OpenAI personnel, including safety and alignment researchers, remain in the loop, providing an additional layer of human oversight and assurance that these strict red lines are not crossed.
What makes OpenAI's agreement different or stronger than others, like Anthropic's?
OpenAI believes its agreement offers stronger guarantees and safeguards due to its multi-layered approach. Unlike some other agreements that might rely solely on usage policies, OpenAI's contract ensures that its proprietary safety stack remains fully operational and under its control. The cloud-only deployment architecture inherently restricts certain high-risk applications, such as fully autonomous weapons, which typically require edge deployment. Furthermore, the continuous involvement of cleared OpenAI personnel provides active human oversight and verification, creating a more robust framework against unacceptable uses, which they argue surpasses earlier agreements.
What role do OpenAI personnel play in ensuring compliance?
Cleared OpenAI personnel, including forward-deployed engineers and safety and alignment researchers, play a critical 'in the loop' role. They help the government integrate the technology responsibly while actively monitoring for adherence to the established red lines. This direct involvement allows OpenAI to independently verify that the system is not being used for prohibited activities, such as domestic surveillance or autonomous weapons control. Their ongoing presence ensures that safety guardrails are maintained, and models are continuously improved with safety and alignment as core priorities, providing an additional layer of technical and ethical assurance.
What happens if the Department of War violates the agreement?
In the event of a violation, as with any contractual agreement, OpenAI retains the right to terminate the contract. This serves as a significant deterrent, ensuring that the Department of War adheres strictly to the agreed-upon terms and conditions. The termination clause underscores the seriousness of the safety guardrails and red lines established within the agreement, demonstrating OpenAI's commitment to upholding its ethical principles even in high-stakes national security contexts. While OpenAI does not anticipate such a breach, the contractual provision provides a clear recourse.
Will future changes in law or policy affect the agreement's protections?
No, the agreement is designed to be resilient against future changes in law or policy. It explicitly references current surveillance and autonomous weapons laws and policies, such as the Fourth Amendment, National Security Act, FISA Act, and DoD Directive 3000.09, as they exist today. This means that even if these laws or policies were to be altered in the future, the use of OpenAI's systems under this contract must still comply with the stringent standards reflected in the original agreement. This forward-thinking clause provides a strong, enduring layer of protection against potential erosion of safeguards.

Hold deg oppdatert

Få de siste AI-nyhetene i innboksen din.

Del